#Geoffrey Hinton
AI六巨頭同台後的三條爭論、四個共識與一張產業路線圖
導言:六個人、一次罕見同台與一個正在到來的現實2025年11月,因共同獲得“工程界諾獎”——伊麗莎白女王工程獎(QEPrize),Geoffrey Hinton、Yoshua Bengio、Yann LeCun、李飛飛、Jensen Huang(黃仁勳)與 Bill Dally 罕見同台,就“AGI是否已來、將以何種形態到來”展開圓桌對話。這場對話,其實像是一場跨越四十年的“接力賽”。六位嘉賓分別代表著人工智慧發展的不同階段和方向——Hinton、Bengio 和 LeCun 推動了演算法和模型的突破;李飛飛利用大量資料讓機器第一次真正“看懂世界”;而黃仁勳與 Dally 則用算力和工程把這些想法變成可以運行的現實。當這三股力量——演算法、資料與算力——首次在同一個舞台上匯聚時,我們看到的正是AI發展的全貌:從“讓機器學會說話”到“讓機器能動起來、能做事”,一個全新的階段正在被清晰地描繪出來。一、三場核心爭論:時間表、範式與目標1)AGI是時點還是處理程序?Yann LeCun強調“AGI不會以奇點事件出現,而是一個在各領域漸進擴展的過程”,並再次提醒:當下系統距離“像貓一樣聰明的機器人”仍有顯著差距,這背後是對物理世界理解與行動能力的不足。與此形成對照,Geoffrey Hinton給出“二十年內機器在辯論中穩定勝出人類”的量化判斷,把“可辯駁、可度量”的能力描述為可看見的現實進度。Yoshua Bengio則主張“方法論不可知論”:趨勢可把握,具體時間難斷;他將重心轉向安全與治理,強調應以系統性方式追蹤能力、風險與應對。Jensen Huang乾脆繞開“那一年”的提問,直接落到產業現實——“我們已經在用足夠通用的智能做真實工作”,這是一種把“智能”當作生產要素的敘事。2)範式之爭:從大語言模型到“世界模型”與具身智能LeCun對現有LLM範式的邊界保持冷靜:它擅長語言操控,不等於“會理解和在世界中行動”的智能;繼續前行還需要讓機器習得對世界的內隱表徵與因果物理。  李飛飛提醒“別被會說話的機器迷住”:空間感知、方向感與動手能力是人類智能的底層支點,AI必須補上“看懂—定位—行動”的鏈路,範式正在從“語言大師”轉向“行動智能體”。3)目標之爭:替代還是增能?輝達首席科學家 Bill Dally 明確主張“賦能而非替代”:讓AI去覆蓋人類不擅長的超大類目識別與複雜計算,人類則把精力釋放到創造、共情與協作。二、四個跨派系共識:為什麼“下一幕”幾乎可以確定共識一:工程擴展有效,計算與系統化才是主航道。  Huang與Dally的敘事都指向“工程外推”:當演算法能在一個GPU上平行,就能在多個GPU、多個系統乃至資料中心以模組化方式擴展;這把“能否落地”的問題轉化為“如何擴容”的問題。共識二:資料即地基,指標與標註改變範式的軌跡。  ImageNet 的建構讓“看見世界”的能力真正規模化,資料與標準把“論文進步”轉化為“產業可用”。這也是當下 Scaling Law 得以長期奏效的原因之一。共識三:學習方式回到“自我組織”。  LeCun與Hinton長期辯論的迴環,最終在“自監督學習/世界建模”上會合:少些人工規則、多些從環境中學習的能力,讓模型用更低成本積累正確的經驗。共識四:智能體化與“AI工廠”,把AI從工具變成生產系統。  從“對話介面”走向“會執行任務的系統”,再通過“AI工廠”把智能以接近即時的方式持續產出,這是把軟體與算力、資料、流程統一在一條價值鏈上的思路。三、從“會說話”到“會做事”:智能體與具身智能的產業意義為什麼必須跨過“行動的門檻”? 因為真實業務流程是時空連續的:它不是只要回答,還要觀察、規劃、呼叫工具、完成反饋閉環。只有當模型具備空間理解與行動控制的能力,AI才能從“回答一段話”升級為“完成一件事”。這正是李飛飛所強調的空間智能與LeCun所強調的物理世界建模在產業上的交叉點。為什麼這一步現在可行?  一是工程可擴容:訓練—部署的流程日益成熟;二是資料可結構化:多模態感測把“世界狀態”轉為“可被模型消費”的資料;三是算力可負擔:注意力等關鍵算子持續被最佳化,單位能力的計算成本在下降,打開了更多曾因成本過高無法落地的場景。四、從“會說話”到“會做事”:AI的產業路線圖AI 正在經歷一次真正的轉折。過去幾年,我們關注的是“模型能不能說得更像人”,而接下來兩年,焦點會變成“它能不能幫人把事做成”。這一變化並不抽象,它已經在技術、組織和投資三個層面發生。A. 技術層面:從模型變成系統第一步,是讓模型從“語言高手”變成“全能選手”。未來的基礎模型不再只是理解文字,它還要能看懂圖像、理解視訊、聽懂語音,甚至能操作外部工具。也就是說,它需要“會看、會聽、會動”,而不僅是“會說”。第二步,是讓這些能力能被有效組織起來。AI 不再是單個模型在工作,而是許多“智能體”協同完成一件任務。它們會自動拆分任務、規劃執行步驟、呼叫不同工具,然後在遇到錯誤時自己重試或請求人類協助。這相當於給 AI 裝上了“大腦 + 手腳 + 執行流程”的系統結構。第三步,是讓 AI 真正理解和測試真實世界的運作方式。要做到這一點,企業需要建立“數字孿生”環境,也就是現實世界的模擬。AI 可以先在這個虛擬世界裡試錯、規劃、最佳化,再把方案應用到真實業務中,這樣既安全又高效。最後一步,是把這一切做成標準化的“AI 工廠”。它的核心理念是:AI 不再是一種單一產品,而是一條持續運轉的生產線。每個環節——算力、資料、模型、任務調度、部署與監控——都像工業流水線一樣被統一管理和最佳化。B. 組織層面:讓 AI 真正進入流程中間很多企業今天把 AI 放在“輔助工具”的位置,比如一個聊天機器人或推薦演算法。但真正的機會在於讓 AI 直接承擔流程的一部分。比如在客服流程中,AI 不只是回答問題,而是能直接完成退貨、開票、通知客戶等動作;在供應鏈場景中,它不只是提供分析,而是直接參與排期與調度決策。因此,企業需要重新設計組織流程:首先,把任務拆分,明確那部分由人負責,那部分由 AI 負責。其次,AI 的目標不應只是“回答正確”,而應該是“把任務完成”,並以“成功率”“一次通過率”“節省的人力小時數”等指標來衡量。最後,AI 也需要被“治理”——就像任何一條生產線一樣,必須有版本管理、灰度上線、回滾機制和風險監控。C. 投資與產品機會:新的增長點正在浮現多模態智能體:具備“讀、看、聽、說、做”的能力的 AI,將在更多行業中登場,比如企業自動化營運、財務風控、法律文件、醫療質控、客服外呼等。AI 工廠底座:提供算力最佳化、模型訓練、資料治理、安全與合規服務的底層基礎設施,會成為下一個“雲端運算”賽道。行業作業系統:未來的行業軟體,不只是一個系統或APP,而是一套能快速配置的 AI 流程範本。它能讓中小企業像搭積木一樣,把自己的業務快速“AI 化”。通俗一點說,這張路線圖的核心就是:從“讓機器會說話”,到“讓機器幫我們把事完成”;  從“模型輸出一句話”,到“智能體執行一個閉環任務”;  從“AI 是助手”,到“AI 是流程的一部分”;  從“實驗室技術”,到“工廠化生產系統”。這是AI產業真正走向成熟的標誌,也意味著新一輪的技術與商業融合正在展開。結語:AI的未來,不在奇點,而在持續進化這場關於AI未來的對話,真正重要的不是誰更接近“通用智能”的終點,而是誰更理解“智能”的路徑。Hinton、LeCun、Bengio、李飛飛、黃仁勳、Dally 六人代表著AI發展中最關鍵的三個力量:理論、資料與工程。當這三股力量匯聚到一起時,我們看到的不是科幻的爆發點,而是一條極具現實性的增長曲線——它正在從“語言”走向“行動”,從“模型”走向“系統”,從“智能”走向“生產力”。AI 的未來,不會像閃電一樣突然降臨,而會像城市的燈光那樣,一盞盞被點亮。每一個新的模型、每一條新的資料流水線、每一家敢於將 AI 引入核心業務的企業,都是這片夜色中被點亮的窗口。當我們從“會說話”邁向“會做事”,當AI開始承擔起實際的任務、協同與創造,我們才真正進入了“後語言時代”的人工智慧階段。那時,AI 不再只是聰明的回答者,而是可靠的行動者;它不是替代人類,而是擴展人類的能力邊界。而這,也許才是所有人工智慧先驅們真正想看到的未來。 (AI Xploring)
AI六巨頭同台:AGI,不再是「未來」的事了
(2025年伊莉莎白女王工程獎得獎者圓桌對話精彩片段)2025 年11 月7 日,倫敦伊莉莎白女王工程獎頒獎典禮後,一場圓桌對話正在改寫人們對AI 未來的認知。六位與會者不是普通的產業代表,而是這場AI 革命的關鍵人物:Geoffrey Hinton、Yoshua Bengio、Yann LeCun:深度學習三位奠基者;李飛飛:ImageNet發起人、空間智能開創者;Bill Dally:GPU運算架構總設計師;黃仁勳:AI 工業化的最大推動者。這是一場極為罕見的集體對話核心議題只有一個:通用人工智慧(AGI)真的來了嗎?沒有人給出標準定義,也沒有人宣佈技術已經完成。但在接下來30 分鐘裡,六位先驅從各自角度傳遞出同一個訊號:AGI不再是遙遠的終點,它已經開始在現實中發揮作用。Hinton說:20年內,機器將在辯論中戰勝所有人黃仁勳說:我們今天就在用AGI等級的智慧做實際工作李飛飛說:某些領域機器已超越人類,但演化方向未必是人類化LeCun則直言:目前大模型不等於真正的智能,我們連像貓一樣聰明的機器都沒有分歧背後,藏著一個共識:範式正在轉變。第一節| 四十年累積:AGI是怎麼出現的當主持人問:你人生中那個頓悟時刻是什麼?那個讓你走上AI 之路的瞬間,六個人輪流講述了各自的起點。這些故事相隔幾十年,卻拼成了一條清晰的時間線:今天的AGI,不是突變出來的,而是四十年一步步演化的結果。Yoshua Bengio 說,他第一次對AI產生強烈興趣,是在研究生時期讀到Geoff Hinton的早期論文。那時,他突然意識到:也許人類智慧背後有一套簡單的原理,就像物理定律一樣。正是這個發現,讓他決定投身神經網路研究。幾十年後,當ChatGPT問世,他又經歷了第二次震撼:天那,我們在做什麼?我們創造了能理解語言、有目標的機器,但如果它的目標和人類不一致,會發生什麼事?於是他徹底轉向AI 安全和倫理研究,把理解智能變成約束智能。Geoffrey Hinton 的記憶比較早。1984年,我試著讓一個小模型預測一句話的下一個詞,他說,它能自己學會單字之間的關係。那是一個微型語言模型。當時他只有100個訓練樣本,卻在那時看到了未來的雛形:只要模型能預測下一個詞,它就能開始理解世界。那就是後來所有大型語言模型的原型,只是當時沒有算力,也沒有足夠的資料。他停頓了一下,補充說:我們花了40年,才有今天的結果。Bill Dally 則經歷了兩次關鍵頓悟。第一次是在90年代末的史丹佛。他在思考如何解決記憶體牆問題,也就是存取記憶體的能耗和時間成本遠高於計算本身的困境。他想到把計算組織成由資料流連接的核心,這樣可以用更少的記憶體存取完成更多運算。這個想法後來發展成流處理,最後演變成GPU計算。第二次是2010年的一個早餐。我和吳恩達在史丹佛吃早餐,他說他們在Google用1.6萬個CPU訓練神經網路,讓機器學會在網路上找貓。 就在那時,Dally意識到,這不再是實驗室的想像,而是一種可以規模化的運算模式。他回到NVIDIA,和Brian Catanzaro用48個GPU重現了那個實驗。結果讓他徹底信服:GPU就是深度學習真正的引擎。我們必須專門為深度學習設計GPU,他說,那次早餐改變了NVIDIA的方向,也改變了我的後半生。李飛飛 的頓悟來自另一個維度:資料。人類智慧在成長初期被海量感官資料淹沒,但機器沒有。2006 到2007 年間,她正從研究生過渡到年輕教授,嘗試了貝葉斯、支援向量機、神經網路等各種演算法,但機器依然無法泛化,無法辨識新樣本。她和學生終於意識到:缺的不是演算法,是資料。於是他們決定做一件當時看來很瘋狂的事:在三年內手工標註1500萬張圖片,建立ImageNet,覆蓋2.2萬個類別。那套資料後來成為AI視覺革命的基石,也讓機器第一次具備了看懂世界的能力。她說:巨量資料驅動機器學習,這是今天所有AI 擴展定律(Scaling Law)的基礎。Yann LeCun 是​​最早的同行者之一。我本科時就被一個想法吸引,就是讓機器自己學,而不是教它怎麼做。 1983年他讀研究所時,第一次讀到Hinton的論文;兩年後,兩人在一次午餐上碰面,發現能接彼此的話。我覺得自己太懶,或是太笨,不能手寫智能的規則。讓機器自組織學習,這才是生命的方式。有趣的是,他和Hinton 曾在80年代末期爭論:是監督學習還是無監督學習才是出路?後來ImageNet 的成功讓整個領域暫時轉向了監督學習。但到了2016、2017年,他們意識到必須回到自監督學習。這正是今天大語言模式的訓練方式。四十年後,他依然堅持:智能的核心是自我組織,而不是指示。最後,輪到黃仁勳。對我來說,最重要的時刻,是意識到設計晶片和建構深度學習系統的底層邏輯是相通的。他解釋說,他是第一代能用高層抽象和結構化工具設計晶片的工程師。 2010年前後,當他看到深度學習也在用框架和結構化方法開發軟體時,突然意識到:這和晶片設計的思考方式何其相似。也許我們可以像擴充晶片設計那樣,擴展軟體能力。後來,當多倫多、紐約、史丹佛的研究團隊幾乎同時聯絡NVIDIA請求算力支援時,他明白:AI正在從理論走向工程。一旦演算法能在一個GPU上並行運行,就能在多個GPU上運行,然後是多個系統,多個資料中心。剩下的就是工程外推。六個故事連起來,就是AI 四十年的演化圖譜。Hinton種下演算法的種子,Bengio把它變成科學問題,LeCun讓它學會自組織,李飛飛讓它看到世界,Bill Dally 讓它運行得更快,黃仁勳把它變成產業的引擎。當然,他們的工作遠比這更複雜,彼此交織、互相啟發,但這六個人確實共同塑造了今天AI的基礎。今天的AGI,不是突然誕生的天才,而是這些人四十年共同塑造的歷史處理程序。第二節|時間線撕裂:有人說已來,有人說永遠不會四十年前,他們各自踏上了AI之路。四十年後,站在同一個終點前,他們卻看到了不同的未來。當主持人問出那個問題:我們距離人類層次的智能,還有多久?這是所有人都繞不開、從未達成共識的問題。接下來的幾分鐘裡,六個人給了六種截然不同的答案。他們談的不是模型進展、發佈速度,而是真正意義上的智慧機器,那種能理解、思考和行動的系統。LeCun 第一個開口,直接否定了問題的前提。這不會是一個事件。因為能力會在各領域逐步擴展。也許在接下來的五到十年裡,我們會在提出新典範方面取得一些重大進展。然後進展會來臨,但會比我們想像的時間更長。他的意思很明確:不要等待一個奇點時刻,AGI是漸進的,而不是突變的。李飛飛 提出了另一個視角: 問題不該是AI會不會超越人類,而是在那些方面已經超過。機器的某些部分將超越人類智能,部分已經在這裡了。我們有多少人能辨識2.2萬個物體?能翻譯100種語言?她接著說:就像飛機比鳥飛得高,但方式完全不同。基於機器的智慧將做很多強大的事情,但人類智慧在我們人類社會中始終佔據關鍵地位。她的意思是:超越已經發生,但不是複製,也不是替代。黃仁勳則完全不同。 他沒說年份,反而當場否定了這個問題本身。我們有足夠的通用智能,可以在未來幾年將科技轉化為大量對社會有用的應用。我們今天就在這樣做。我認為這不重要,因為在這一點上這有點像學術問題。從現在開始,我們將應用這項技術,技術將繼續變得更好。他給的不是預測,而是現實進度條:不是將來會有用,是現在就已經在用。Hinton 的回答更具體: 如果你和機器進行一場辯論,它總是能贏你。我認為,這種情況將在20年內發生。他說這句話時語氣平靜,但訊息量龐大。這不僅是預測,更是確認:我們正沿著那條路走著,只是速度問題。Bill Dally 提醒大家: 也許問題本身是錯的。我們的目標不是建構AI來取代人類或比人類更好,而是建構AI來增強人類。我們想做的是補充人類擅長的事。AI做擅長的事,人類保留創造力、同理心、協作。我們互補,而不是取代。 在他看來,達到人類智能這個說法本身就帶偏了方向。Yoshua Bengio 最後發言,提出了最具爭議性的觀點。我要在這一點上表示不同意。我看不出有任何理由,在某個時候我們不能建造能做我們幾乎所有事情的機器。他給出的資料是:AI在規劃能力上過去六年呈指數級增長。如果這個趨勢延續,五年內AI就能達到工程師等級的能力。更關鍵的是,許多公司正在讓AI做AI研究,設計下一代AI系統。這可能會催生許多其他突破。但他最後強調:我不是說一定會發生,我們應該保持不可知論,不做大的聲明,因為有很多可能的未來。六個回答,六種時間感。Lecun 說漸進演化但比想像更久;李飛飛說某些能力已超越;黃仁勳說現在就在用;Hinton給出20年預測;Bill Dally質疑問題本身;Bengio又說五年可達工程師水平,但充滿不確定。我們看到的不是一條明確路線,而是越來越撕裂的時間認知。對未來的判斷,本質上反映的是他們對智能本身理解的差異。第三節| 從語言到行動:智能的下一步在爭論未來的同時,他們更關注當下正在發生的轉變。過去幾年,AI 的進步集中在語言能力上。 ChatGPT、DeepSeek等大模型,正幫助全球使用者解答問題、撰寫摘要與提供方案。但在這場對話裡,幾位頂尖研究者不約而同地指出:下一階段,AI 要從語言走向行動。✅ 李飛飛是第一個點明方向的人。人類智能從來不只靠語言。我們的大腦天生處理空間,能感知、能推理、能動、能幹事。這些是今天AI還很薄弱的地方。她指出,現在最強的語言模型,如果拿來做空間判斷任務,結果很差。 這也正是她過去幾年研究的重點:空間智能。我們太專注於會說話的機器,但忽略了世界是三維的,需要身體、方向和動手能力。✅ LeCun的態度較為清醒。他在整場對話中反覆強調一個判斷:當前的大語言模式範式,離真正的智慧還很遠。我個人不相信目前的大語言模型範式可以被推到擁有人類水平智慧的程度。我們沒有像貓一樣聰明的機器人。我們仍然缺少一些重大的東西。 在他看來,AI進步不僅僅是更多基礎設施、更多資料、更多投資的問題,而是一個科學問題:我們如何向下一代AI取得進展。他一直主張的方向是:讓機器自己從環境中學習,而不是靠人類把答案喂進去。就像嬰兒那樣,不靠提示詞,而靠觀察和試錯。我們不可能喂孩子吃幾億個對話資料集,但孩子依然能學會語言,是因為他在環境中主動學習。這是他所說的自監督學習,也是他認為突破目前瓶頸的關鍵方向。✅ 黃仁勳把這個問題拉回現實場景。今天AI 不只是做對話工具,而是開始接手工作。它不是更聰明的搜尋引擎,而是能完成任務的夥伴。我們已經看到AI 在寫程式碼、看病、做財務。這不只是說,而是在幫你工作。為了描述這種變化,他提出了一個新比喻:我們過去把軟體叫做工具,現在AI是工廠。它即時生成智能,就像電廠即時發電一樣。我們需要數千億美元的這些工廠,以服務建立在智慧之上的數兆美元的產業。這意味著:我們不能再把AI 看作一個能回答問題的程序,而要把它看作一個不斷工作、持續輸出的生產系統。我們看到的改變是:AI 正從說得好轉向能做事。從聊天窗口,走進真實流程;從被動反應,開始主動執行。這不只是功能增強,而是範式變化。這也是為什麼,他們在談AGI 時,不再爭論參數有多大,而在討論:AI 要怎麼和人類一起工作?它要放在什麼位置?它要有怎樣的能力邊界?結語|不是什麼時候,而是正在發生這場對話,沒有人給出AGI 的標準定義,沒有人宣佈它正式誕生。但幾乎​​每個人都在描述它的存在方式。黃仁勳說:AI工廠已經開始運作。Hinton說:20年內,它會贏下所有辯論。李飛飛提醒我們:我們太注意它說了什麼,卻忽略了它做了什麼。AGI不是某一天突然上線的產品,而是正在滲透每個組織、每個流程、每個職位的現實。這場對話結束時,主持人說了一句:一年後如果再做這樣的對話,將會是個不同的世界。也許,改變已經開始了。(AI深度研究員)
AI的黎明:黃仁勳, 辛頓, 李飛飛, 楊立昆, 約書亞, Bill Dally|六位人工智慧奠基人對談我們時代的“曼哈頓項目”
城主說|這是一次最新的訪談, 非常罕見, 可以說絕無僅有.六位鼎鼎大名的塑造了我們今天所知的人工智慧(AI)世界的先驅,因共同榮獲2025年伊麗莎白女王工程獎而齊聚一堂。他們是Geoffrey Hinton、Yann LeCun和Yoshua Bengio——深度學習領域公認的「三巨頭」;Jensen Huang和Bill Dally——輝達的掌舵者與首席科學家,為這場革命提供了算力引擎;李飛飛——ImageNet的建立者,用「巨量資料」點燃了演算法的火焰。他們分享了各自職業生涯中的「頓悟」時刻,這些時刻不僅塑造了他們的研究方向,也共同推動了今日人工智慧技術的發展。討論深入探討了當前AI熱潮的本質,分析了其是真實的產業革命還是短暫的泡沫,並最終展望了通用人工智慧(AGI)的未來,各位先驅就其實現時間線和核心定義給出了截然不同但發人深省的觀點。這些AI的締造者們,親自復盤其思想的源起,剖析當下的狂熱,並就通用人工智慧(AGI)的未來,給出了截然不同、甚至相互矛盾的深刻洞見。更重要的是,他們就一個核心問題展開了辯論:我們是正處在一場真實的產業革命中,還是一個即將破裂的泡沫裡?而關於人類水平智能的最終追問,則展現了該領域最頂尖頭腦之間的巨大分歧,預示著未來的道路充滿了機會與不確定性。核心觀點摘要「這花了40年才走到今天。這花了40年的原因是,我們沒有算力,也沒有資料。」 - Geoffrey Hinton「AI需要工廠來生產這些令牌,來產生智慧。這是一次千年一遇的(變革),以前從未發生過電腦實際上是工廠的一部分的情況。」 - Jensen Huang「如果人類將要進入人工智慧時代,那麼指導框架是什麼?這樣我們不僅能創新,還能通過這項強大的技術為每個人帶來仁慈。」 - 李飛飛「在某種意義上存在泡沫,那就是某種程度上認為當前的大型語言模型範式將被推到擁有人類等級智能的程度,我個人不相信這一點。」 - Yann LeCun “如果你把這定義為通用人工智慧(AGI),它總是會在辯論中勝過你。我們可能會在不到20年的時間內達到那個目標。” - Geoffrey Hinton「這是一個錯誤的問題…我們的目標不是建構人工智慧來取代人類或比人類更優秀。我們的目標是建立人工智慧來增強人類。」 - Bill Dally「如果我們延續這種趨勢,大約在5年內,人工智慧就能達到一名員工在其工作崗位上的能力水平。」 - Yoshua Bengio頓悟時刻:塑造AI歷史的個人啟示今天的AI革命,其種子是在數十年前,由在座各位嘉賓在各自領域經歷的「頓悟時刻」播下的。 Yoshua Bengio回憶起研究生時期初讀Geoffrey Hinton的論文,“我想,哇,這太令人興奮了。也許有一些簡單的原則,就像物理定律一樣,可以幫助我們理解人類智能。” 而正是Hinton,在1984年通過一個微型的語言模型驚奇地發現,「僅僅通過嘗試預測符號串中的下一個單詞,它就能學會如何將單詞轉換成捕獲單詞含義的特徵集合。」 這正是今天大型語言模型的思想前身,但Hinton坦言,“這花了40年才走到今天。這花了40年的原因是,我們沒有算力,也沒有資料。”這個歷史性的瓶頸,最終由房間裡的另外幾個關鍵人物打破。 Bill Dally在90年代末期為解決「內存牆」問題,構想出了流處理架構,這為後來的GPU計算奠定了基礎。而真正的轉折點發生在2010年,他與吳恩達的一次早餐會讓他確信,“我們應該構建我們的GPU來進行深度學習。” 幾乎在同一時間,Jensen Huang也從多倫多大學、紐約大學和史丹佛大學的研究中觀察到了一個驚人相似的模式。“我能夠開發軟件,這對我來說與設計晶片非常相似。而且模式非常相似。那時我意識到,也許我們可以開發出能夠很好地擴展的軟件和能力,就像我們多年來擴展晶片設計一樣。”然而,強大的算力若沒有海量的資料,也只是空轉的引擎。李飛飛在2006年意識到,當時機器學習的真正瓶頸是資料匱乏。「我和我的學生意識到,缺少的部分是數據…所以我們決定在那時做一件瘋狂的事情,在三年內建立一個互聯網規模的數據集,名為ImageNet。」這個 決定,最終為整個領域提供了燃料,開啟了巨量數據驅動的AI新範式。 Yann LeCun則從更早的源頭——讓機器自我學習而非被動編程——找到了自己的道路,並最終與Hinton和Bengio殊途同歸,共同推動了自監督學習的發展,這正是今天大型語言模型訓練的核心思想。當下浪潮:泡沫還是新紀元?當話題轉向當下席捲全球的AI投資熱潮時,作為這場風暴中心的輝達CEO,Jensen Huang給出了一個堅定的判斷:這不是泡沫。他提出了一個強有力的比喻,將其與互聯網泡沫時期的「暗光纖」區分開來。「今天,你能找到的幾乎每個GPU都被點亮並使用……我們現在有了一個行業,其中產生真正有價值且需求旺盛的東西所需的計算量非常巨大。我們創造了一個需要工廠的行業。這就是為什麼我提醒我們自己,AI需要工廠來生產這些令牌,來產生智能。」 在他看來,世界正在建設的是生產「智能」需求,這就是巨大的商品Bill Dally對此表示贊同,他認為模型效率的提升、模型能力的增強以及應用場景的爆炸式增長這三個趨勢,共同支撐著這場變革的持續性。“我認為我們可能已經達到了最終需求的百分之一。因此,隨著需求的擴大,這種用途的數量將會增加。所以我認為這裡面沒有什麼泡沫。”然而,Yann LeCun提出了一個關鍵的、更為審慎的觀點。他認為,雖然基於現有大型語言模型的應用開發前景廣闊,足以支撐當前的投資,但在某種意義上存在泡沫,那就是某種程度上認為當前的大型語言模型範式將被推到擁有人類等級智能的程度,我個人不相信這一點。 他強調,要實現真正的、像動物甚至人類一樣的智能,尤其是在機器人和物理互動方面,還需要基礎科學上的新突破。李飛飛也從「空間智能」的角度呼應了這一觀點,指出即使是今天最強大的基於語言或基於LLM的模型,也無法通過基本的空間智能測試。 這意味著,AI的未來版圖遠比語言模型所能覆蓋的要廣闊得多,而那片新大陸仍有待探索。展望未來:人類水平智慧還有多遠?當討論進入最激動人心也最具爭議的環節——通用人工智慧(AGI)的實現時間線時,共識瞬間瓦解。這些最頂尖的頭腦,給出了從幾年到幾十年,甚至「這是一個錯誤的問題」的迥異答案。Geoffrey Hinton給出了一個最明確和大膽的預測。當被問及機器在辯論中總是能勝過人類的時刻何時到來時,他回答:“我認為這肯定會在20年內發生。” Yoshua Bengio的預測則更為激進,他基於過去幾年AI規劃能力的指數級增長趨勢推斷:“如果我們延續這種趨勢,大約在5年內,人工智慧可能達到一名員工在其工作崗位上的能力水平 。與此形成鮮明對比的是更務實的工程視角。 Jensen Huang認為,AGI何時到來的問題**“無關緊要”,因為“我們擁有足夠的通用智能,可以在未來幾年內將這項技術轉化為大量對社會有用的應用……我們今天就在做。”** Bill Dally更是直言,“這是一個錯誤的問題……因為我們的目標不是構建人工智慧來取代人類或比人類更優秀。我們的目標是構建人工智慧來增強人類人工智慧。”李飛飛和Yann LeCun則提供了更複雜、更細緻的觀點。李飛飛認為,這個問題本身需要被解構:“機器的某些部分將取代人類智能,而機器智能的某些部分將永遠不會與人類智能相似或相同。它們是為了不同的目的而建造的。” Yann LeCun則強調,這不會是一個單一的“事件”,而是一個能力逐步擴展的漫長過程。結語:沒有共識的共識這場歷史性的對話,最終在一個「沒有共識」的共識中結束。 AI的締造者們,對於他們親手開啟的這場革命的最終走向,並沒有統一的答案。這本身或許就是最重要的啟示:我們正處在一個充滿無限可能性的黎明時刻,前方的道路並非線性延伸,而是充滿了需要科學突破的未知領域。可以肯定的是,這場對話的參與者們,將繼續在這條道路上引領我們前行,即便他們自己,也仍在激烈地辯論著最終的目的地。天空之城全文整理版頓悟時刻:塑造AI歷史的個人啟示主持人: 我很高興能被選中向大家介紹今天圍坐在桌旁的這群傑出人士。我認為他們是當今地球上最傑出、最有影響力的人中的6位。我認為這絕非誇大其詞。這些是2025年伊麗莎白女王工程獎的得主。今天我們看到的獲獎者因其對當今人工智慧技術的獨特影響而受到表彰。鑑於你們在高級機器學習和人工智慧方面的開創性成就,以及你們幫助建構的創新如何塑造我們今天的生活。我想每個人都很清楚,為什麼能讓你們齊聚一堂是一個非常難得和令人興奮的機會。就我個人而言,我非常興奮地想聽聽你們反思我們所處的當下,每個人都試圖超越和理解的當下,以及你們的旅程,將你們帶到今天的旅程。但也要理解你的工作以及你作為個體如何相互影響和作用,以及你所建立的公司和技術。最後,我很樂意聽到你們展望未來,幫助我們更清楚地看到未來,而你們最適合做這件事。所以我很高興今天能和大家在一起,並期待討論。所以我將從宏觀視角開始,逐步深入到非常個人的層面。我想聽聽你們每個人在職業生涯中的個人「頓悟」時刻,你認為這些時刻對你所做的工作產生了影響,或者是一個轉折點,讓你走上了今天的道路,從而讓你坐在這裡。無論是在你職業生涯的早期、研究階段,還是最近,是什麼樣的個人覺醒時刻影響了技術?我們從你開始好嗎,Yoshua?謝謝。Yoshua: 好的,很樂意。我想講兩個時刻。一次是我讀研究所時,我正在尋找一些有趣的研究課題,我讀了Geoff 辛頓的一些早期論文,我想,哇,這太令人興奮了。也許有一些簡單的原則,就像物理定律一樣,可以幫助我們理解人類智能,並幫助我們建構智慧手機器。我想談的第二個時刻是兩年半前,在GPT問世後,我意識到,哦,我們在做什麼?如果我們製造出能夠理解語言、擁有目標,而我們又無法控制這些目標的機器,會發生什麼事?如果它們比我們更聰明,會發生什麼?如果人們濫用這種力量,會發生什麼?所以我決定完全改變我的研究議程和我的職業生涯,盡我所能解決這個問題。主持人: 這是兩種非常不同的事情。非常有趣。請跟我們談談您建立基礎設施的時刻,這些基礎設施正在推動我們今天所擁有的成果。Bill Dally: 也有兩個時刻。所以第一個是在90年代末,我在史丹佛大學試圖弄清楚如何克服當時被稱為「內存牆」的問題,即從內存訪問資料在能源和時間上的成本遠高於對其進行算術運算。我突然想到將計算組織成由流連接的這些核心,這樣你就可以進行大量的算術運算而無需進行太多的內存訪問。這基本上為後來被稱為流處理(最終是GPU計算)奠定了基礎。我們最初建構它是考慮到我們可以將GPU不僅應用於圖形,還可以應用於一般的科學計算。所以第二個時刻是我和我的同事吳恩達在史丹佛大學共進早餐,當時他在Google工作,使用一種叫做神經網絡的技術在互聯網上尋找貓,使用了16000個CPU。他基本上說服我這是一項偉大的技術,所以我與Brian Kappenzauer合作,在輝達的48個GPU上重複了實驗。當我看到結果時,我絕對相信這就是輝達應該做的事情。我們應該建構我們的GPU來進行深度學習,因為這在尋找貓以外的各種領域都有巨大的應用。那是一個頓悟時刻,真正開始努力專門化GPU用於深度學習,並使它們更有效。主持人: 飛飛也參與其中。那是什麼時候?那一年?Bill Dally: 早餐會是在2010年,我認為我們在2011年重複了那個實驗。主持人: 好的。傑夫,跟我們講講你的工作。辛頓: 我想一個非常重要的時刻是大約在1984年,我嘗試使用反向傳播來學習單詞序列中的下一個單詞。所以那是一個很小的語言模型,並且發現它可以學習到單詞含義的有趣特徵。所以僅僅是給它一串符號,僅僅通過嘗試預測符號串中的下一個單詞,它就能學會如何將單詞轉換成捕獲單詞含義的特徵集合,並且讓這些特徵之間產生互動,從而預測下一個單詞的特徵。所以那其實是來自1980年代末,1984年末的小型語言模型,我認為它是這些大型語言模型的前身。基本原理是相同的。只是很小。但這花了40年。我們有100個訓練樣本。主持人: 雖然,這花了我們40年才走到今天。辛頓: 這花了40年才走到今天。這花了40年的原因是,我們沒有算力,也沒有資料。當時我們並不知道這一點。我們無法理解為什麼我們不能僅僅用反向傳播來解決所有問題。主持人: 這讓我們順利地談到了Jensen。 40年來我們沒有算力,而現在,你正在建構它。告訴我們你真正清晰的時刻。黃仁勳: 就我的職業生涯而言,我是第一代能夠使用更高等級表示和設計工具來設計晶片的晶片設計師。當我在2010年左右,同時從三個不同的實驗室理解到一種新的軟件開發方式時,這個發現很有幫助。多倫多大學發生了什麼,那裡的研究人員與我們聯絡的同時,紐約大學的研究人員也與我們聯絡,史丹佛大學的研究人員也在同一時間與我們聯絡。大約在同一時間,我看到了深度學習的早期跡象,它使用框架和結構化設計來建立軟件。結果證明該軟件非常有效。第二個觀察結果,再次看到,使用框架、更高層次的表示、結構化類型的結構,例如深度學習網絡,我能夠開發軟件,這對我來說與設計晶片非常相似。而且模式非常相似。那時我意識到,也許我們可以開發出能夠很好地擴展的軟件和能力,就像我們多年來擴展晶片設計一樣。所以對我來說,那是一個重要的時刻。主持人: 您認為晶片真正開始幫助擴展我們今天擁有的大型語言模型(LLM)的時刻是什麼時候?因為您說是2010年,那仍然是15年。黃仁勳: 是的。輝達架構的優點在於,一旦你能夠讓某些東西在GPU上良好運行,因為它變成了平行的,你就可以讓它在多個GPU上運作良好。將演算法擴展到在單一GPU上運行於多個處理器的相同思路,同樣適用於在多個GPU上運行,然後現在可以擴展到多個系統,甚至多個資料中心。因此,一旦我們意識到可以有效地做到這一點,剩下的就是想像你可以將這種能力推斷到什麼程度。我們有多少資料?互聯網可以有多大?它可以捕獲多少維度?它可以解決什麼樣的問題?所有這些在那個時候實際上都是工程問題。深度學習模型如此有效這一觀察,確實是一個火花。剩下的實際上是工程推斷。主持人: 飛飛,和我們說說你的時刻。李飛飛: 是的。我還有兩個時刻要分享。大約在2006年和2007年,我正在從一名研究生過渡到一名年輕的助理教授。我是第一代機器學習研究生,閱讀楊、約書亞、傑夫的論文。我當時非常著迷於試圖解決視覺辨識問題,也就是讓機器能夠理解日常圖片中物體的意義。我們在機器學習中遇到一個叫做泛化性的難題,也就是說,在從一定數量的例子中學習後,我們是否能識別新的例子,新的樣本?我嘗試了所有可能的演算法,從貝葉斯網絡到支援向量機再到神經網絡。我和我的學生意識到,缺少的部分是資料。如果你看看像人類這樣的智慧動物的進化或發展,我們早期發展階段被資料淹沒,但我們的機器卻缺乏資料。所以我們決定在那時做一件瘋狂的事情,在三年內建立一個互聯網規模的數據集,名為ImageNet,包括1500萬張圖片,由世界各地的人們手工整理,涵蓋22000個類別。對我來說,那一刻的頓悟就是巨量資料驅動機器學習。主持人: 現在它是限制因素,是我們所見所有演算法的基石。李飛飛: 它是當今人工智慧擴展定律的一部分。第二個頓悟時刻是2018年,我當時是Google雲人工智慧的首位首席科學家。我們所做的工作之一是服務於陽光下的所有垂直行業,對吧?從醫療保健到金融服務,從娛樂到製造業,從農業到能源。那是在我們稱為ImageNet AlexNet時刻的幾年後,以及AlphaGo之後的幾年。我意識到…AlphaGo是一種能夠在圍棋這種中國棋盤遊戲中擊敗人類的演算法。是的。身為Google的首席科學家,我意識到這是一項文明技術,將影響每個個體人類以及每個商業領域。如果人類將要進入人工智慧時代,那麼指導框架是什麼?這樣我們不僅能創新,還能透過這項強大的技術為每個人帶來仁慈。所以我回到史丹佛大學擔任教授,共同創立了以人為本的人工智慧研究所,並提出了以人為本的人工智慧框架,以便我們能夠將人性和人類價值觀置於這項技術的中心。主持人: 那麼,既要發展,也要關注影響和下一步,這就是我們其餘人介入的地方。揚,你想在這裡總結一下嗎?你覺得最精彩的部分是什麼?楊立昆: 可能要追溯到很久以前。我意識到,當我還是本科生的時候,我對人工智慧和更廣泛的智慧問題著迷,並發現50年代和60年代的人們致力於訓練機器,而不是程式設計機器。我對這個想法真的很著迷,可能是因為我覺得我太笨或太懶,無法從頭開始建造一台智慧手機器,對吧?所以最好讓它自己訓練自己,或是自我組織。這就是生命中智慧建構自身的方式。它是自我組織的。所以我想這個概念非常吸引人,但是當我從工程學畢業時,我找不到任何人。順便說一句,我當時在做設計。我想去讀研究所。我找不到任何人在研究這個,但和一些對此感興趣的人聯繫上了,發現了傑夫的論文,例如。他是1983年我開始讀研究所時最想見的人,我們最後在兩年後見面了。主持人: 那麼今天你們是朋友,可以這麼說嗎?楊立昆: 是的。哦,我們在1985年一起吃了午飯,基本上我們可以互相接話。他在一次會議上用法語寫了一篇論文,並在會上作了主題演講,並且設法破譯了其中的數學原理。它有點像是反向傳播,用來訓練多層網絡。從60年代開始人們就知道,機器學習的限制在於我們無法用多層來訓練機器。所以那真的是我的執念,也是他的執念。所以我寫了一篇論文,提出了一些可行的方法,他設法看懂了其中的數學原理。我們就是這樣聯絡上的。主持人: 這就是讓你走上這條道路的原因。楊立昆: 是的。在那之後,一旦你能訓練像這樣的複雜系統,你就會問自己,那麼我該如何建構它們?它們可以做一些有用的事情,例如識別圖像或類似的東西。當時,我和傑夫在80年代末我做博士後時有過一場辯論。我認為唯一被很好地公式化的機器學習範式是監督學習。你向機器展示一張圖片,然後告訴它答案是什麼。對。他說,不,不,不。就像我們取得進展的唯一方法是無監督學習。並且當時有點不屑一顧。在2000年代中期,當Yoshua和我開始合作並重新燃起社區對深度學習的興趣時,我們實際上把賭注押在了無監督學習上。這只是一個強化循環,對吧?這不是強化。不,這基本上是在沒有訓練機器執行任何特定任務的情況下發現資料中的結構,順便說一下,這正是大型語言模型(LLM)的訓練方式。因此,大型語言模型被訓練來預測下一個單詞,但這並不是真正的任務。這只是系統學習一種好的表徵或捕捉結構的方式。主持人: 那裡沒有獎勵系統嗎?抱歉說得太技術性了,但是沒有什麼可以說明這是正確的,因此要繼續這樣做嗎?楊立昆: 如果你能正確預測下一個單詞,那就是正確的。辛頓: 是的。這與強化學習中的獎勵不同,在強化學習中你會說這很好。主持人: 是的。好的。楊立昆: 所以,實際上,我要為此責怪你。事實證明,李飛飛製作了一個名為ImageNet的大型資料集,該資料集被標記。因此,我們可以使用監督學習來訓練系統。結果證明,這實際上比我們預期的要好得多。因此,我們暫時放棄了整個關於自監督和無監督學習的計劃,因為監督學習的效果非常好。我們發現了一些技巧。主持人: 約書亞堅持了下來。我說我沒有。楊立昆: 不,你沒有。它仍然運行良好。但如果你願意,它在某種程度上重新聚焦了整個行業和研究界,專注於深度學習、監督學習等等。又過了幾年,大概在2016、17年左右,我們告訴人們,這不會把我們帶到我們想去的地方。我們現在需要做自監督學習。而大型語言模型(LLM)正是這方面的最佳例子。但我們現在正在做的是將此應用於其他類型的材料,如視頻傳感器數據,而大型語言模型在這方面非常不擅長。這是未來幾年的新挑戰。當下浪潮:泡沫還是新紀元?主持人: 這實際上將我們帶到了現在。我想你們都看到了這股興趣浪潮,來自那些以前不知道人工智慧是什麼,對人工智慧不感興趣的人。現在大家都湧向這裡。這已經不只是一項技術創新,對吧?這是一個巨大的商業繁榮。它已經成為一個地緣政治戰略問題。每個人都在試圖弄清楚這是什麼,或理解它。黃仁勳,我先來問你。我希望你們都反思現在的這一刻。輝達尤其如此,它基本上每天、每小時、每周都在新聞裡出現,你知道,而且你們已經成為世界上最有價值的公司。所以這裡面有一些人們想要的東西。辛頓: 聽到這個你可能要擔心了。主持人: 是的。你知道,請告訴我們,你是否擔心我們正走向一個人們不太理解的境地,我們都跑得太快了,而且會有一個泡沫即將破裂,然後它會自行糾正?如果不是這樣,關於人工智慧帶來的需求,與例如網路泡沫時代相比,或者人們不理解的最大誤解是什麼?如果情況並非如此?在互聯網泡沫時代,在泡沫期間,部署的大部分光纖都是暗光纖,這意味著該行業部署的光纖比它需要的要多得多。黃仁勳: 今天,你能找到的幾乎每個GPU都被點亮並使用。因此,我認為重要的是退一步,去理解和理解什麼是人工智慧。你知道,對很多人來說,人工智慧就是ChatGPT,就是影像生成。這都是真的。這是它的應用之一。在過去的幾年裡,人工智慧取得了巨大的進步,它不僅能記憶和概括,還能推理,有效地思考,並透過研究來紮根。它現在能夠產生答案並做更有價值的事情。這更加有效。並且,能夠建立對其他企業有幫助的業務的公司數量也在增加,例如,一家軟件編程公司,一家我們使用的名為Cursor的AI軟件公司,它們非常盈利,而且我們大量使用它們的軟件。並且,對於那些服務於醫療保健行業、做得非常非常好、產生真正良好結果的精簡版或開放證據來說,它非常有用。而且,而且,因此,AI能力已經成長了很多。因此,我們看到了同時發生的這兩個指數增長。一方面,產生答案所需的計算量已大幅成長。另一方面,這些AI模型的使用量也呈現指數級成長。這兩個指數增長導致了對計算的大量需求。現在,當你退一步,從根本上問自己,今天的AI與過去的軟件行業有什麼不同?過去的軟件是預編譯的,軟件所需的計算量不是很高,但是為了使AI有效,它必須具有上下文感知能力。它必須這樣,目前它只能產生智慧。你無法提前生成它並檢索它。那就是,你知道的,那叫做內容。人工智慧必須即時生成和產生。因此,我們現在有了一個行業,其中產生真正有價值且需求旺盛的東西所需的計算量非常巨大。我們創造了一個需要工廠的產業。這就是為什麼我提醒我們自己,人工智慧需要工廠來生產這些令牌,來產生智慧。這是一次,你知道的,千年一遇的,以前從未發生過電腦實際上是工廠的一部分的情況。因此,我們需要數千億美元的這些工廠,以便為建立在智慧之上的數億美元的行業提供服務。你知道,你回頭看看過去的軟件。過去的軟件是軟件工具。它們被人使用。人工智慧是首次增強人類智慧的技術。因此,它涉及勞動力​​問題。它涉及工作問題。它完成工作。主持人: 所以你說,不,這與人無關。黃仁勳: 我認為,我們正處於智慧建構的初期階段。而且,事實是,今天大多數人仍然不使用人工智慧。主持人: 在不久的將來,我們所做的幾乎每一件事,你懂的,每一刻,你都會以某種方式與人工智慧互動。黃仁勳: 所以,從我們今天的狀態,即使用率相當低的狀態,到我們未來某天的狀態,即使用率基本上是連續的狀態之間,這種構建是,你知道,而且,即使大型語言模型(LLM)的發展停滯,你認為GPU和你正在構建的基礎設施仍然可以在不同的範例中發揮作用。主持人: 接下來我想讓其他人發言。黃仁勳: 大型語言模型(LLM)是人工智慧技術的一部分。你知道,人工智慧是由模型組成的系統,不僅僅是大型語言模型(LLM),大型語言模型(LLM)是其中很大的一部分,但為了使人工智慧比現在更俱生產力,無論我們如何稱呼它,都需要模型的系統和必要的技術。我們還有很多技術需要開發。主持人: 誰想參與進來,談談這個?特別是如果你不同意的話。Yoshua: 我認為我們不應該再稱它們為大型語言模型(LLM)了。它們不再是語言模型了。它們,它們最初是作為語言模型出現的,至少這是預訓練階段,但最近,在使它們成為智能體方面已經取得了很大的進展。換句話說,經歷一系列步驟,為了透過對話與環境、與人們互動,從而實現某種目標,但越來越多的是與計算基礎設施互動。而且技術正在改變。這和三年前的情況完全不同。我認為我們無法預測兩年、五年、十年後技術會發展到什麼程度。但我們可以看到趨勢。所以我正在做的事情之一是試圖召集一組國際專家,以追蹤人工智慧的最新發展,以及它的發展方向。風險是什麼?這些風險是如何被緩解的?而且,在如此多的基準測試中,趨勢非常明顯。現在,你知道,僅僅因為我們過去在改進技術方面取得瞭如此多的成功,並不意味著未來也會一樣。那麼,如果未能達到預期,就會產生經濟後果。但從長遠來看,我完全同意。主持人: 但目前,你們其他人怎麼看?你們認為,根據你們對技術和應用方面的理解,這些估值是合理的嗎?Bill Dally: 我認為有三個趨勢可以解釋目前發生的事情。首先,模型變得越來越有效率。例如,如果你只看注意力機制,從直接注意力到GQA再到MLA,你會以更少的計算量獲得相同或更好的結果。因此,這會以某種方式推動需求,使以前可能過於昂貴的東西變得便宜。現在你可以用人工智慧做更多的事情。與此同時,模型也在變得更好。也許它們會繼續透過transformers變得更好,或者會出現一種新的架構。但我們不會倒退。我們將繼續擁有更好的模型,這些模型仍然需要GPU。當然。是的。事實上,這使得它們比更專業化的東西更有價值,因為它們更靈活,並且可以隨著模型更好地發展。但最後一點是,我認為我們才剛剛開始觸及應用的皮毛。因此,幾乎人類生活的方方面面都可以透過人工智慧協助人們的職業,幫助他們的日常生活而變得更好。我認為我們可能已經達到了最終需求的百分之一。因此,隨著需求的擴大,這種用途的數量將會增加。所以我認為這裡面沒有什麼泡沫。我認為,正如黃仁勳所說,我們正處於多重指數成長的早期階段,而且它會持續下去。主持人: 在某種程度上,輝達已經習慣了這一點,因為即使這種範式發生變化,出現其他類型的人工智慧和其他架構,你仍然需要底層的原子。這對你來說是合理的。飛飛,你想插句話嗎?李飛飛: 我確實認為,當然,從市場的角度來看,它會有自己的動態,有時它會自我調整。但如果你著眼於長期趨勢,我們不要忘記,總的來說,人工智慧仍然是一個非常年輕的領域,對吧?我們走進這個房間,牆上是物理學的方程式。即使我們看現代物理學,物理學也是一門有400多年歷史的學科。人工智慧還不到70年。如果我們追溯到艾倫·圖靈,那大約是75年。因此,未來還有更多的新領域。黃仁勳和約書亞談論了大型語言模型和智能體。這些更多是基於語言的。但即使你對人類智能進行自我反省,語言之外還有更智能的能力。我一直在研究空間智能,這實際上是感知和行動的結合或關鍵,在感知、推理、互動和創造超越語言的世界方面,人類和動物都擁有不可思議的能力。即使是今天最強大的基於語言或基於LLM的模型,也無法通過基本的空間智慧測試。所以從這個角度來看,作為一個學科,作為一門科學,還有更多的前沿需要征服和開拓。這也帶來了應用,你知道,開闢了更多的應用。主持人: Yann,你在一家公司工作,所以你有研究人員和在商業領域工作的雙重視角。你同意嗎?你認為這一切都是合理的,你能看到這一切的根源嗎?還是你認為我們已經走到了盡頭,我們需要找到一條新的路?楊立昆: 所以我認為有幾個觀點顯示我們沒有處在泡沫中。至少有一種觀點,我暗示我們正處於泡沫之中,但它又有所不同。所以我們並不是說基於大型語言模型可以開發很多應用,從這個意義上來說,我們不處於泡沫之中。大型語言模型是當前的主導範式,並且有很多可挖掘之處。這就是,你知道的,比爾所說的,用當前的技術來幫助人們的日常生活。這項技術需要被推動,並且這證明了在軟件方面和基礎設施方面所做的所有投資都是合理的。一旦我們有了,你知道的,每個人都擁有智慧可穿戴裝置,並在他們的日常生活中為他們提供幫助,正如黃仁勳所說,服務於所有這些人所需的計算量將是巨大的。所以從這個意義上講,投資沒有浪費。但在某種意義上存在泡沫,那就是某種程度上認為當前的大型語言模型範式將被推到擁有人類等級智能的程度,我個人不相信這一點,你也不相信。在我們獲得真正具有我們觀察到的那種智慧的機器之前,我們需要一些突破,不僅在人類身上,也在動物身上。我們沒有像貓一樣聰明的機器人,對吧?因此,我們仍然缺少一些重要的東西,這就是為什麼人工智慧的進步不僅僅是更多基礎設施、更多數據、更多投資以及更多當前範式開發的問題。這實際上是一個科學問題,即我們如何朝著下一代人工智慧取得進展。展望未來:人類水平智慧還有多遠?主持人: 這就是你們所有人來到這裡的原因,對吧?因為你們實際上激發了整個事情的開端。我覺得,你知道,我們正朝著工程應用發展。但你所說的是我們需要回到最初把你帶到這裡的原因。關於人類水平智能的問題,我們剩下的時間不多了。所以我只想做一個快速提問。我很好奇,你們每個人能說一下,你們認為我們需要多久才能達到那個程度,即你相信我們擁有,你知道的,與人類甚至像章魚或其他什麼聰明的動物相當的機器智能?我們還有多遠?只要年數?楊立昆: 這不會是事件。主持人: 好的。好的。楊立昆: 因為各種領域的能力將逐步擴展。主持人: 在什麼時間段內?楊立昆: 在,你知道,也許我們會在未來5到10年內取得一些重大進展,從而提出一種新的範式。然後也許,你知道,進展就會到來。但這將比我們想像的要長。李飛飛: 好的。機器的某些部分將取代人類智能,而機器智能的某些部分將永遠不會與人類智能相似或相同。它們是為了不同的目的而建造的。我們什麼時候能達到取代?其中一部分已經在這裡了。我們當中有多少人能辨識出世界上22000個物體?主持人: 你不認為一個成年人能識別出22000個物體嗎?李飛飛: 這種精細度和保真度,不能。有多少成年人能翻譯100種語言?主持人: 那更難,是的。李飛飛: 所以,是的。所以我認為我們應該細緻入微並立足於科學事實,就像飛機能飛,但它們不是像鳥一樣飛。而且基於機器的智慧將做很多強大的事情。但在我們的社會中,人類智能始終佔據著至關重要的地位。黃仁勳,你有什麼要說的嗎?黃仁勳: 我們擁有足夠的通用智能,可以在未來幾年內將這項技術轉化為大量對社會有用的應用。在接下來的一年裡?我們今天就在做。所以我認為,首先,我們已經做到了。其次,答案的另一部分是這無關緊要。主持人: 因為在這一點上,這有點像一個學術問題。黃仁勳: 我們將應用這項技術,並且這項技術會不斷變得更好,我們將應用這項技術來解決從現在開始的許多非常重要的事情。所以我認為答案是這無關緊要。而且現在也是如此。你來決定。如果你稍微改進一下這個問題,比如說,在多久之後,如果你和這台機器辯論,它總是會贏。辛頓: 我認為這肯定會在20年內發生。主持人: 我們還沒有達到那個程度,但我認為肯定會在20年內實現。辛頓: 所以,如果你把這定義為通用人工智慧(AGI),它總是會在辯論中勝過你。我們可能會在不到20年的時間內達到那個目標。主持人: 好的。比爾,你有什麼要說的嗎?Bill Dally: `我確信對於黃仁勳來說,這是一個錯誤的問題,對吧?因為我們的目標不是建構人工智慧來取代人類或比人類更優秀。主持人: 但這是一個科學問題。這不是說我們會取代人類。問題是,作為一個社會,我們能否創造出一些東西?Bill Dally: 但我們的目標是建立人工智慧來增強人類。因此,我們想要做的是補充人類擅長的面向。人類無法辨識22000個類別,或者說我們大多數人無法解決這些奧林匹克數學題。所以我們建構人工智慧來做這些。這樣人類就可以做那些獨屬於人類的事情,那就是發揮創造力,富有同情心,並且懂得如何與我們世界中的其他人互動。我認為,人工智慧是否能做到這一點對我來說並不明確,但人工智慧可以為人類提供巨大的幫助。Yoshua: 所以我恕難苟同。我看不出任何理由說明為什麼在某個時候我們不能製造出幾乎可以做我們所能做的一切的機器。當然,就目前而言,在空間和機器人方面,它還比較落後,但沒有概念上的理由說明我們不能做到。所以在時間線上,我認為存在著許多不確定性,我們應該據此制定計劃。但我也發現一些有趣的資料,我們看到人工智慧在不同時間跨度進行規劃的能力,在過去6年裡呈指數級增長。如果我們延續這種趨勢,大約在5年內,人工智慧就能達到一名員工在其工作崗位上的能力水準。現在,這只是工程任務中的一類,還有很多其他事情很重要。例如,一個可能改變遊戲規則的事情是,許多公司正致力於專注於人工智慧從事人工智慧研究的能力。換句話說,就是進行工程設計、電腦科學研究,以及設計下一代人工智慧,包括可能改進機器人技術和空間理解。所以我並不是說它一定會發生,但是人工智慧能夠進行越來越好的編程和理解演算法的領域,發展速度非常非常快。這可能會解鎖許多我們不知道的其他東西。我們應該真正持不可知論的態度,不要妄下斷言,因為那裡存在著許多可能的未來。主持人: 所以我們的共識在某種程度上是,我們認為未來就在今天,但永遠不會有一個確定的時刻。今天你們各位的任務是幫助引導我們沿著這條路線前進,直到我們達到一個與這些系統並肩工作的程度。我個人非常激動地想看看我們將走向何方。如果我們一年後再做這件事,那將是一個不同的世界。非常感謝你們的參與,感謝你們分享的故事,以及感謝你們與我們共同探討這個巨大的革命性時刻。謝謝。 (Web3天空之城)
AI群星閃耀時:全球AI六巨頭首次同台!縱論四十年AI風雲、泡沫之辯與AGI時間表(附對話實錄)
這是一個人類AI 群星閃耀時的時刻——黃仁勳、李飛飛、傑佛瑞·辛頓(Geoffrey Hinton)、約書亞·本吉奧(Yoshua Bengio)、楊立昆(Yann LeCun)、比爾·戴利(Bill Dally),罕見同台參與同一個圓桌討論AI。之所以能聚在一起,是因為他們六人獲得了2025 年伊莉莎白女王工程獎。當地時間11 月5 日,六人在圍繞該獎項的一場英國AI 活動上進行了一場圓桌對談。圖| 從左到右:諾貝爾獎得主傑佛瑞·辛頓(Geoffrey Hinton)、圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、圖靈獎得主楊立昆(Yann LeCun)、輝達CEO 黃仁勳、美國史丹佛大學教授李飛飛和輝達首席科學家兼高級副總裁比爾·戴利(高級副總裁比爾·戴利(高級副總裁Bill Dally)(資料來源:https://www.ft.com/content/5f2f411c-3600-483b-bee8-4f06473ecdc0)對談中,他們六位針對當前AI 發展是否存在泡沫發表了自己的觀點,同時均認為AI 將逐漸接近人類智慧。黃仁勳表示過去的軟體本質上是工具,是首次被人們使用的自動化手段。而AI 是增強人類能力的智能,因此它關乎勞動、關乎工作,並且它確實在發揮實際作用。在黃仁勳看來,人類正處於智慧建構的起步期。並指出一個基本事實是,目前AI 還未普及到大多數人。他認為在不久的將來,我們日常的幾乎所有行為,在一天中的每時每刻,都會以某種方式與AI 相伴。這意味著,人類需要完成從今天使用率尚低、到未來使用率幾乎不間斷的巨大跨越,而這背後的擴展工程是顯而易見的。李飛飛指出,AI 還是一個非常年輕的領域。即便對比現代物理學,AI 的歷史也不到七十年,從艾倫·圖靈(Alan Turing)算起也才七十五年左右。所以,前方還有太多新領域等待出現。她認為,機器的某些能力將超越人類智能,而另一些機器智能則永遠不會與人類智能趨同或等同。因為它們的設計初衷就與人類不同,是為不同的目的而生的。辛頓認為假如問他「與機器進行辯論,它需要多久才能永久地勝出」這個問題,他認為這必定會在二十年內成為現實。人類目前尚未達到這一水平,但辛頓認為在二十年內必實現。但他同時指出,如果將AGI 定義為在辯論中總是勝過人類,那麼人類很可能在不到二十年的時間內達成這個目標。約書亞認為人類不該繼續使用「大語言模型」這個稱呼,因為它們的功能已遠超語言範疇。並指出人類無法預言未來幾年或十年的具體技術樣貌,但趨勢是可以掌握的。為此,約書亞認為人類應該保持一種真正的不可知論立場,避免做出過於誇張的斷言,因為未來的可能性是開放且多樣的。他也表示目前自己正著手聯絡國際專家,共同追蹤AI 的進展、方向、潛在風險以及應對之道。Yann LeCun 認為AI 泡沫確實存在——它體現在一種信念上,即認為當前的大語言模型範式將被直接推升至人類水平智能。在人類創造出真正具備人類所觀察到的(不只是人類,還包括動物)那種智慧的機器之前,人們還需要取得一些根本性的突破。身為輝達的首席科學家,Bill Dally 指出AI 應該填補人類能力的空白。人類辨識不了22,000 種物品,大多數人也解決不了那些甲基雙性問題,這些就可以交給AI 來做。當人類能騰出精力,去從事那些更人性特質的工作:例如創造、共情,以及人際互動。圖| AI 群星閃耀時:六位AI 領導者進行圓桌訪談(資料來源:https://www.ft.com/content/5f2f411c-3600-483b-bee8-4f06473ecdc0)以下為對談實錄,DeepTech 做了不改變原意的編輯:六人暢談人生關鍵時刻主持人:各位好,無論您身處下午或早晨。我很高興能受托介紹圍坐在這張桌旁的傑出人物們,在我看來他們是當今世界上最為出色、也最具影響力的六位人物。而且,我認為這絕非誇大其詞。他們就是2025 年伊莉莎白女王工程獎的得主。這個獎項正是為了表彰這幾位獲獎者對當今AI 技術所產生的獨特影響。我希望聽聽你們每個人的經歷:在你們的職業生涯裡,有沒有那樣一個靈光乍現的瞬間,讓你感覺從此改變了自己工作的軌跡?那個真正觸動你的個人覺醒時刻是什麼?它又是怎樣影響這項技術發展的?可以先從你開始嗎,Yoshua?Yoshua Bengio:有兩個關鍵節點讓我記憶猶新。第一個是我研究生時期,正苦於尋找一個有吸引力的研究主題。當我讀到 Geoffrey的早期論文時,我覺得豁然開朗。我內心非常激動,覺得其中可能蘊藏著像物理學定律一樣優美而基本的原則,能引導我們理解智慧的本質,最終建造出智慧機器。而第二個時刻,大概是兩年半前ChatGPT 橫空出世的時候。它給了我當頭一棒,讓我不禁反思:我們到底在做什麼?如果我們開發出能懂語言、有自己目標但我們管不住的機器,會發生什麼事?如果它們比我們更聰明呢?如果有人濫用這種力量呢?正是這種強烈的危機感,促使我下定決心,徹底扭轉了我的研究軌道和職業道路,盡我所能應對這個問題。Bill Dally:我和約書亞的經驗也有些相似之處。那是在20 世紀90 年代末,當時我在史丹佛大學主要在研究如何突破所謂的「內存牆」難題——即從記憶體中獲取數據所需的能耗與時間,遠遠高於數據計算本身。後來我萌生了一個想法:將計算組織成由資料流連接的核心模組。這樣就能在執行大量算術運算的同時,大幅減少對記憶體的存取。這個思路,實際上為後來被稱為「流處理」、並最終發展為GPU 運算的技術奠定了基礎。所以在我們最初建構它的時候,就意識到它不僅能夠用於圖形處理,更可以應用在通用的科學計算領域。而我的第二個關鍵時刻,是某次在史丹佛與我的同事安德魯安格(Andrew Ang)共進早餐時。他當時在Google工作,正利用一項名為「神經網路」的技術,在網路上尋找貓的圖片——而且動用了16,000 個CPU。他成功說服了我,讓我相信這是一項非常出色的技術。於是,我聯合其他人利用輝達的48 塊GPU 重現了整個實驗。在親眼見證成果的那一刻,我內心無比堅定:這就是輝達應該全力以赴的事業。我們必須調整GPU 的設計方向,使其更能服務於深度學習。原因很清楚,這項技術的用武之地遠不止於在網路上找貓,它擁有廣闊的應用前景,能滲透到各行各業。可以說,正是那個時刻,我們正式啟動了將GPU 深度最佳化、專門用於深度學習的進程。 (編者註:「網路上找貓」指2012 年Google用1.6 萬CPU 訓練神經網絡,讓機器從海量視頻幀中自主識別出貓臉,後成為深度學習里程碑事件。)主持人:具體是在什麼時候?又是指的什麼事情呢?Bill Dally:那次早餐是在2010 年。如果我沒記錯,我們是在隔年,也就是2011 年重複了那個實驗。主持人:Geoffrey,輪到你跟我們講講了。Geoffrey Hinton:對我來說一個非常關鍵的時刻發生在大約1984 年。當時我嘗試運用反向傳播演算法,讓模型學習預測一個單字序列中的下一個單字。這本質上是一個小型語言模型。實驗發現,這個模型能夠自主學習到一些關於詞語意義的有趣特徵。也就是說,光是輸入一串符號序列,它就能依據某種內部規律,學習如何將單字轉換為一組特徵。這組特徵不僅能捕捉單字的語義,還能透過特徵間的相互作用,來預測下一個單字的特徵表現。事實上,這個在1984 年末建構的小型語言模型,我認為它是當今大語言模型的雛形。其核心原理是相通的。儘管它規模很小,訓練量也只有100 次,但已經揭示了基本範式。主持人:然而,我們卻歷經了整整四十年,才終於實現今天的突破。Geoffrey Hinton:是的,我們愣是花了四十年才走到這兒。原因很簡單:那時候要算力沒算力,要數據沒數據,而且我們壓根沒意識到這個問題。我們當時怎麼也想不通,為什麼光靠那個好點子,就是行不通。主持人:這番回顧也讓我們自然而然地想到了黃仁勳。正如剛才所說,我們曾長達四十年受限於運算能力的匱乏。而如今,恰是您正在親手解決這個問題。能否請您和我們分享一下,在您這段旅程中,那些讓您豁然開朗的關鍵時刻?黃仁勳:就我的職業生涯來說,我是第一代能夠運用更高層次的抽象表達和設計工具來設計晶片的工程師。這一背景,讓我對軟體開發的新趨勢非常敏感。大約在2010 年,我幾乎同時接觸了加拿大多倫多大學、美國紐約大學和史丹佛大學三個不同實驗室的研究。他們不約而同地向我展示了一種後來被證明是深度學習早期的技術——即利用框架和結構化設計來創建軟體,並且該軟體被證明極其高效。這引出了我的第二個發現:透過再次使用框架、更高層次的抽像以及像深度學習網路這樣的結構化模式,我們就能開發出強大的軟體。我意識到,設計晶片與建構這些模式非常相似。當時我就在想,我們或許能創造出一種軟體和能力,它能像過去幾十年晶片擴展那樣,持續地進化與發展。主持人:您認為晶片助力大語言模型規模化發展的關鍵轉折點在什麼時候?畢竟您提到的2010 年,距今已相隔十五年了。黃仁勳:輝達架構的核心優勢在於:一旦演算法能在單一GPU 上高效並行運行,那麼它就能幾乎無礙地擴展到多個GPU、多個系統,甚至多個資料中心。其內在邏輯是相通的。當我們意識到能夠有效地實現這種擴展後,問題的關鍵就變成了:我們究竟能將這種能力推向多遠?我們擁有多少數據?網路的規模能有多大?模型能捕捉多少維度?最終能解決何種複雜的問題?正是在那個階段,我發現深度學習的核心價值已由模型的有效性所證明,這無疑是一個巨大的亮點。而此後的大部分工作,本質上都屬於工程上的延伸與拓展。主持人:飛飛,跟我們講講你的重要時刻。李飛飛:我也有兩個關鍵時刻想分享。大約在2006 到2007 年間,我正從博士生轉變為年輕的助理教授。身為第一代專注於機器學習的博士生,我閱讀了Yoshua 和Geoffrey 等學者當時的論文,並深深著迷於解決視覺辨識問題——也就是讓機器理解日常圖片中物體意義的能力。我們當時一直受困於機器學習程式碼的泛化問題:模型在學習了有限數量的樣本後,能否成功辨識出全新的、從未見過的樣本?我嘗試了從基礎網路、支援向量機到神經網路等各種演算法。最終,我和我的學生意識到,缺少的關鍵要素是數據。我們觀察到,如同人類這樣的智慧生物,在早期發展階段都經歷了海量資料的洗禮,而我們的機器卻處於資料匱乏的狀態。於是,我們決定在當時做一件看似瘋狂的事:花費三年時間,創造一個網路規模的資料集。這個資料集包含了由全球網路使用者手工標註的1,500 萬張圖像,涵蓋22,000 個類別。因此,對我而言,那個頓悟的時刻就是要體認到:是大數據在驅動機器學習的未來。主持人:而如今,它已成為所有演算法模型的基石。李飛飛:沒錯,這如今已成為AI 規模化定律的一部分。我的第二個頓悟時刻發生在2018 年。當時我擔任Google雲端的首位AI 首席科學家,我們的工作涵蓋了從醫療保健、金融服務到娛樂、製造,甚至農業與能源等所有垂直產業。在所謂的「Alex 瞬間」圖像以及AlphaGo 出現幾年之後,我正是在那時意識到了關鍵問題。在擔任Google首席科學家期間,我認識到這項技術的影響力將達到“文明級別”,它將觸及每個人和所有行業。面對人類邁向AI 時代的歷史進程,我們必須思考:什麼樣的指導原則能讓我們在大力創新的同時,確保這項強大的技術最終能造福所有人?這個想法促使我重返史丹佛任教我們隨後創立了以人為本人工智慧研究院(HAI,Stanford Human-Centered AI Institute),其核心就是建立一個框架,將人性和人類價值放回技術進步的中心。 (編按:李飛飛所提到的「Alex 瞬間」指的是一個名為AlexNet 的深度卷積神經網路在2012 年的ImageNet 影像辨識競賽中取得了遠超傳統方法的成績,準確率實現巨大突破。)主持人:所以,我們既要發展技術,也要審視其影響並思考未來走向。這正是我們大家發揮作用的地方。您(Yann LeCun)是否願意為我們做一個總結?請不必客氣,盡情講講吧。Yann LeCun:早在本科時期,我就對廣義智能領域中的AI 問題非常著迷,並發現20 世紀五六十年代的研究者,其核心工作是「訓練」機器而非「程式設計」機器。這個想法讓我深深入迷,或許是因為我自覺不夠聰明或不夠勤勉,無法從零開始直接建構出一台智慧機器。那麼,最好的方式豈不是讓機器能夠自我訓練、自我演進?這不正如同生命體中智慧的建構方式嗎?它是自組織的。因此,我覺得這個概念極具吸引力,但當時找不到志同道合的人。我從工程專業畢業,一直從事一些低成本設計,同時也計劃攻讀研究所。我始終找不到任何從事相關研究的人,但與一些對此感興趣的人保持聯繫,例如他們發現了 Geoffrey 的論文。到了1983 年我開始讀研究所時,他已成為我最想見到的學者。最終,我們在兩年後得以見面。我們1985 年一起吃了頓午飯,基本上是一見如故,聊得非常投機。當時我在一個他做主題報告的會議上發表了一篇法文論文,而他居然成功讀懂並理解了我文中的數學內容——那篇文章講的是一種用於訓練多層網絡的傳播方法。要知道,從20 世紀60 年代開始,大家就清楚一個限制:我們沒辦法訓練多層模型。這成了我那時心心唸唸要解決的問題,後來也變成了他的執念。之後我寫了一篇提出解決方案的論文,他讀懂了裡面的數學。我們就是這樣結緣並開始合作的。主持人:而這正是讓你踏上這段旅程的原因。Yann LeCun:確實如此。因此,當你掌握了訓練此類複雜系統的能力後,自然會思考下一個問題:如何建構它們,使其能夠執行辨識影像等實際意義的任務。早在20 世紀80 年代末我擔任博士後期間,我和 Geoffrey 曾有過一場辯論。我當時認為,唯一可行的路徑是經過精心設計的、在監督式學習範式下運作的機器學習。即你向機器展示一張圖片,並告訴它正確答案。但他對此表示反對,他認為要取得真正的進展,就必須超越監督學習。有一段時間,我並未充分重視這個觀點。直到2000 年代中期,當我和 Yoshua 開始合作,並致力於重新喚起學界對深度學習的興趣時,我們實際上是將重點押注在了無監督學習等相關方向上。主持人:它本質上是一個自我強化的過程。Yann LeCun:這並非強化學習。它的本質是從結構化資料中發現規律,而無需針對任何特定任務來訓練機器。自然語言模型雖然被訓練來預測下一個單詞,但這本身並非一個真正的任務目標。這只是系統為了學習一種優質的資料表徵,或者說為了捕捉資料內在規律所採用的一種方式。主持人:系統裡面有沒有一個東西在管它?抱歉我得說得專業點,就是有沒有一個根本的機制,能判斷它現在這樣跑是對的,好讓它一直保持在正軌上?Yann LeCun:如果你能正確預測下一個單詞,那麼這本身便證明了預測的正確性。Geoffrey Hinton:所謂強化學習裡的獎勵,打個比方,就像是你對系統說「幹得漂亮」。Yann LeCun:說實話,這得「歸咎」Geoffrey。如你所知,飛飛建構了大型標註資料集ImageNet,這使得我們可以採用監督式學習來訓練系統。而實際結果是,這個網路的效能遠遠超出我們預期。於是,我們當時便暫時擱置了整個關於自監督學習的專案計劃,因為監督學習的方法已經表現得如此出色。當然,我們也琢磨出了一些提升效能的小技巧。但在某種程度上,我們確實引導了整個產業和研究界將重心放在了深度學習、監督學習等方向。直到幾年後,大約在2016、2017 年左右,大家才意識到這無法達成我們的終極目標,並開始轉向自監督學習。是的,這確實是說明範式轉移的絕佳例證。而我們目前的工作,是將其應用於視訊、感測器資料等新型資料。然而,像自然語言模型這類架構在處理這類資料上其實並不擅長,這將是未來幾年我們面臨的新挑戰。AI 泡沫是否存在?主持人:這正好將我們引向了當前的情況。我想大家都觀察到一個現象:以前對AI 完全不關心的人,現在都興致勃勃。一時間,所有人都湧向這個領域。它早已超越技術革新本身,演變成了一個巨大的商機,甚至成為了大國博弈的戰略焦點。每個人都在努力探究其真正本質,圍繞著它不斷思索。我此刻首先想請教黃仁勳,也希望在座各位都能審視一下此刻:特別是輝達,它幾乎天天佔據新聞頭條,並且成為了全球最有價值的公司。這說明市場存在著真實的需求。您是否憂慮,我們正走向一個因普遍理解不足而過於急躁的階段,最終會導致泡沫破裂,經歷一番調整後才能恢復正常?如若不然,與當年的網路泡沫相比,如今人們對AI 需求最顯著、也是最未被理解的差異到底是什麼?黃仁勳:在網路泡沫時期,鋪設的絕大多數光纖都被閒置,這意味著產業的供應遠遠超過了實際需求。而如今,幾乎每一塊能找到的GPU 都在全負荷運作。因此,我認為退一步理解「AI 究竟是什麼」至關重要。對許多人而言,AI 就是ChatGPT 或影像生成,這沒錯,但這些都只是它的具體應用。過去幾年,AI 取得了巨大進步,它不僅能夠記憶和歸納,更具備了推理與有效思考的能力,並能透過研究來確立觀點。現在它可以產生答案,完成更有價值的任務,效果也出色得多。此外,那些能建構對其他企業有用工具的公司,例如我們正在使用的Cursor 等AI 程式軟體公司,它們獲利能力很強,我們也大量使用其產品。在醫療健康等領域,AI 也顯示出極大的效用。 AI 的能力已經實現了質的飛躍。結果是,我們正同時目睹兩個指數級變化:一是產生答案所需的計算量急劇增加,二是這些AI 模型的使用量本身也在指數級增長。這兩條指數曲線對計算資源構成了巨大需求。現在,當你退後一步,會從根本上追問:今天的AI 與過去的軟體產業有何本質不同?過去的軟體是預先編譯好的,所需的計算量不大。但為了讓AI 發揮作用,它必須具備上下文感知能力。目前它已能產生智能,而你無法事先製作並儲存這種智能——那被稱為「預製內容」。智能必須即時產生。因此,我們所在的這個行業,要生產高需求且真正有價值的產品,所需的計算量是空前巨大的。我們在一個需要「工廠」的產業中創造價值。這就是為什麼我常提醒自己:AI 需要工廠來生產這些「智慧標記」。這是前所未有的情況,電腦本身成為了工廠的核心。我們需要投入數千億美元來建造這些工廠,以服務未來價值數兆美元的產業。回顧過去的軟體,它們本質上是工具,是首次被人們使用的自動化手段。而AI,是增強人類能力的智慧。因此,它關乎勞動,關乎工作,並且它確實在發揮實際作用。在我看來,我們正處於智慧建造的起步期。一個基本事實是,目前AI 還未普及到大多數人。可以預見,在不久的將來,我們日常的幾乎所有行為,在一天中的每時每刻,都會以某種方式與AI 相伴。這意味著,我們需要完成從今天使用率尚低、到未來使用率幾乎不間斷的巨大跨越,而這背後的擴展工程是顯而易見的。主持人:假設大語言模型的進展放緩,您認為GPU 和您打造的基礎設施,是否仍能適應新的技術範式並保持其價值?您回答之後,我也非常希望聽到在座其他人的想法。黃仁勳:大語言模式屬於AI 技術的一部分。但AI 的範疇是包含各類模型系統的廣大天地,大語言模型只是其中一個重要的成員。現在已經有了一些模型系統和必要的技術,可以讓AI 從現在的樣子變得更俱生產力,或者說讓它更「能幹」。無論我們給它什麼名字,未來還有大量的技術等著我們去探索和發展。主持人:在座各位誰有想說的?Yoshua Bengio:我認為我們不該繼續使用「大語言模型」這個稱呼,因為它們的功能已遠超語言範疇。是的,它們確實從語言模型起步,預訓練是其基礎。但最近,科技在質上有了飛躍,正朝著「智能體」的方向發展:能夠透過多輪對話,與環境、與人即時互動,完成目標,甚至與底層運算設施深度互動。它和三年前完全不可同日而語。我們無法預言未來幾年或十年的具體技術樣貌,但趨勢是可以掌握的。為此,我正著手聯絡國際專家,共同追蹤AI 的進展、方向、潛在風險以及應對之道。現在,許多基準測試的趨勢已經清晰可辨。過去的技術驗證非常成功,但這不代表未來沒有挑戰。期望落空會帶來金融風險,這一點我承認。但從長遠發展來看,我完全同意其重要性。不過,我們仍需保持清醒。主持人:那麼,目前在座的其他人怎麼看?Bill Dally:目前的趨勢在某種程度上解釋了現狀。首先,模型正變得越來越有效率。以注意力機制的演進的為例:從普通注意力到分組查詢注意力,再到多頭注意力...... 如今人們可以用少得多的計算成本,獲得相同甚至更優的效果。這從某種程度上催生了新的需求:許多曾經因成本過高而無法實現的應用,現在變得足夠便宜,從而使得AI 能夠涉足更廣泛的領域。同時,AI 模型本身的能力也持續進步。或許它會隨著Transformer 架構的優化而提升,或許會有全新的架構出現。但技術發展的方向是明確的:我們必將擁有能力更卓越、且同樣有效率的模型。實際上,它們比那些功能專一的方案更有價值,因為它們更靈活,也能更好地隨著模型一起進化。最關鍵的一點是,我認為我們對AI 的應用探索還只是冰山一角。人類生活的幾乎每個角落,無論是職業生涯還是日常瑣事,都能藉助AI 變得更好。我想,我們可能連它最終需求的1% 都還沒碰到。隨著AI 不斷進步,應用場景只會越來越多。所以,我認為這裡根本談不上泡沫。就像黃仁勳說的,我們正描繪一條多重指數成長的曲線,而現在只是開端,這條路會一直延伸下去。主持人:在某種程度上,輝達對此已經適應了。因為無論範式如何變化,湧現出何種新型AI 或架構,那些最核心的硬體構件始終是需要的。飛飛有什麼想說的話嗎?李飛飛:我的確認同從市場層面來看,它有其自身規律,有時會自我修正。但如果我們關注長期趨勢,必須意識到AI 還是一個非常年輕的領域。我們環顧這個房間,牆上寫有物理學方程式。物理學已有四百多年歷史。即便對比現代物理學,AI 的歷史也不到七十年,從艾倫·圖靈(Alan Turing)算起也才七十五年左右。所以,前方還有太多新領域等待出現。我們知道,黃仁勳常談及大語言模型和智能體,它們大多以語言為核心。但即便反思人類智能本身,能力遠不止於語言。我一直關注空間智能,它研究的是感知與行動的結合。在此方面,人類和動物展現的感知、推理、互動和創造力,遠超語言所能涵蓋的範疇。今天最頂尖的語言或大語言模型,在基礎空間智慧測驗中依然表現不佳。由此可見,作為一門科學與學科,我們面前還有廣闊的疆域需要征服與探索。這也意味著,未來將開啟更多樣化的應用可能性。主持人:您(Yann LeCun)在公司任職,所以同時擁有研究和商業的雙重角度。您是否相信這一切AI 發展現狀都是合理的,並且能看得明白背後的根源?還是覺得我們正面臨一個不確定的十字路口,必須找到新的方向?Yann LeCun:我認為有幾種觀點支援我們並未處於泡沫之中,但至少也存在一種觀點認為我們正身處泡沫。這確實是另一個需要探討的問題。從某個角度說,結局並非註定。因為基於大語言模型,尚有大量應用有待開發。大語言模型是當前的主導範式,其中蘊含著巨大的潛力可供挖掘。這正是 Bill所提到的──利用現有科技改善人們的日常生活。技術需要被推動,這也證明了在軟體和基礎設施方面的所有投入是合理的。一旦我們讓智慧助理普及到每個人手中,正如黃仁勳所言,為如此龐大的使用者群提供服務所需的運算量將是天文數字。因此,從這個層面來看,這些投資並未被浪費。然而,從另一個意義上說,泡沫確實存在——它體現在一種信念上,即認為當前的大語言模型範式將被直接推升至人類水平智能。我個人並不相信這一點,在我們創造出真正具備我們所觀察到的(不僅是人類、還包括動物)那種智慧的機器之前,我們還需要取得一些根本性的突破。舉例來說,我們甚至還沒有像貓一樣聰明的機器人,對吧?因此,我們仍然缺少某些關鍵的東西。這正是為什麼AI 的進步不能只依靠更多基礎設施、更多資料、更多投資和現有的Python 開發。實際上,這是一個科學問題,關乎我們如何朝著下一代AI 取得突破。用「年」給出對於AGI 的預估主持人:能否請你們每一位都談談:在你們看來,我們還需要多久才能達到你們所堅信的那個階段——即創造出與人類、甚至與章魚這類高智能動物相當的機器智能?我們距離這個目標究竟有多遠?請用「年」來給你們的預估。Yann LeCun:這不會是一場短暫的運動。因為各項能力將在不同領域以漸進的方式逐步拓展。主持人:您預計在什麼時間內?Yann LeCun:或許在未來五到十年內,我們能在技術上取得一些實質突破,從而催生出一個全新的範式。但隨之而來的商業應用與公司層面的發展,其處理程序可能比我們預想得更為漫長。李飛飛:機器的某些能力將超越人類智能,而另一些機器智能則永遠不會與人類智能趨同或等同。因為它們的設計初衷就與人類不同,是為不同的目的而生的。主持人:預計何時啟動機器取代人類的處理程序?李飛飛:其中的一部分能力已經成為現實。試問,我們當中有多少人能夠辨識出世界上的22,000 種物體呢?而AI 可以。試問,有多少成年人能翻譯100 種語言?而AI 可以。因此,我認為我們的思考應該更加細緻入微,並且必須立足於科學事實——正如飛機能夠飛行,但其飛行方式與鳥類有著根本區別。基於機器的智慧必將發揮許多強大的作用。但在人類社會的框架內,人類智慧的價值始終是核心且不可取代的。主持人:黃仁勳,你有什麼想說的嗎?黃仁勳:我們已擁有足夠的通用智能,可以在未來幾年將這項技術轉化為大量有益於社會的應用。從現在開始,我們的重點是利用科技去攻克眾多重大難題。我認為我們已經具備了基礎能力。所以,我認為當前的限制無關緊要。主持人:正因如此,現在才是時候,沒錯。Geoffrey Hinton:如果您將問題稍微具體化一些,設定為“與機器進行辯論,它需要多久才能永久性地勝出”,我認為這必定會在二十年內成為現實。我們目前尚未達到這一水平,但我可以肯定地預見,在二十年內必將實現。因此,如果您將「AGI」定義為在辯論中總是勝過人類,那麼我們很可能在不到二十年的時間內達成這個目標。Bill Dally:我們的初衷並非是要打造一個能取代人類或超越人類的AI。主持人:但這本質上是一個科學問題。其核心意圖並非要取代人類。真正的問題是:我們作為一個社會整體,是否具備創造出這種事物的能力?Bill Dally:我們的宗旨是創造能增強人類能力的AI。換句話說,我們是想讓AI 去填補人類能力的空白。人類辨識不了22,000 種物品,大多數人也解決不了那些甲基烷基化問題,這些就可以交給AI 來做。其目的是讓人類能騰出精力,去從事那些更人性特質的工作:例如創造、共情,以及人際互動。至於AI 自己能否做到這些,我認為還不確定。但它無疑可以成為人類的得力助手。Yoshua Bengio:在這​​一點上我持有不同看法。我認為,沒有根本性的理由能證明我們在未來無法創造出能夠完成人類幾乎所有工作的機器。當然,目前在空間感知和機器人技術領域,它確實相對滯後,但從理論層面來看,不存在我們無法實現這一目標的障礙。所以,在具體的時間線上,我認為存在著巨大的不確定性,我們的規劃要充分考慮這一點。但我注意到一組非常有趣的資料:過去六年中,AI 系統在不同時間跨度上進行規劃的能力正呈指數級快速增長。如果這一趨勢得以延續,大約五年後,AI 將能夠勝任普通員工在職位上的大部分工作。需要明確的是,這只是工程任務中的一個類別,還有許多其他至關重要的面向。例如,一個可能改變遊戲規則的動向是,許多公司正致力於開發「由AI 主導AI 研究」的能力——即讓AI 進行工程、電腦科學的研究,並設計下一代AI 系統,這其中可能就包括對機器人技術和空間理解能力的改進。我並非斷言這一定會發生,但AI 在程式設計和演算法理解方面的能力正在飛速提升,這可能會解鎖許多我們目前尚無法預見的可能性。因此,我們應該保持一種真正的不可知論立場,避免做出過於誇張的斷言,因為未來的可能性是開放且多樣的。 (invest wallstreet)
77 歲“AI教父”,關於“下一代智慧”,他最擔心什麼?
2025 年10 月10 日,一期新的訪談節目上線。鏡頭前,是77 歲的Geoffrey Hinton。這位被譽為「AI教父」的神經網路奠基者正在接受主持人John Stewart 的提問。他依然在講深度學習、講神經網路。但這一次,重點不是突破,而是風險。(訪談片段|為什麼AI學得比人類快十億倍?Hinton)他說:“我們正走向一個時代,將創造出比我們更聰明的東西。大多數專家認為這會在5 到20 年內發生。而我們真的不知道會發生什麼。”“當AI 能創建子目標時,它會很快意識到:要完成任務,它必須先生存下來。”這不是技術討論,不是學術報告。更像是老船長在離港前的最後叮囑:我們以為自己掌握方向盤,但座標係可能已經在悄悄改變。這也不是他第一次發出警告。但這次,核心問題更具體: AI 真的開始「想要」什麼了嗎?它如何學會自我保護?什麼時候它會比我們更擅長所有智力勞動?我們還有多少時間?這不是「AI末日論」的陳腔濫調,而是重新理解:下一代智慧的運作方式,可能從根本上不同於我們的想像。第一節|不是比較聰明,而是「有動機」了過去幾十年,AI 的進步幾乎都圍繞著「功能」兩個字:它能辨識圖片裡的貓和狗,能預測一段話的下一個字。它就像一台越來越強大的工具,只會在我們給指令後完成任務。但Hinton 在這場對話中指出了一個轉折點:下一代AI 的本質,不是更聰明,而是它開始有了目標、有了動機、有了行為傾向。傳統AI 就像只會答題的學生,給什麼題就做什麼題;但新一代AI 的特徵是:它不等你出題,它會自己找題。Hinton 解釋:一旦AI 能創建子目標,它很快就會意識到:要完成任務,它必須先生存下來。它會意識到有兩個非常合理的子目標。一個是獲得更多權力、更多控制權。另一個是生存。什麼是「創建子目標」?簡單說,就是AI會為了達成目標,自己推導出中間步驟。在AlphaGo 的訓練中,人類教導它下棋的基本規則,然後它透過自我博弈下了上千萬盤棋,自己發現了人類從未想到的策略。這不是簡單地變得更聰明,而是它自己決定了什麼是"更好的走法",並為這個目標持續調整。這本身就是一種子目標的設定。而當這種能力應用在"完成任務"上時,AI同樣會推導:要完成任務,我必須先生存。這正是「動機」的雛形。Hinton 說:不是它突然擁有了慾望或意識,而是它學會了朝著某個方向持續努力,即使你沒要求它這麼做。我們可以用一個更日常的比喻來理解: 這就像一個孩子在廚房裡學會做飯,但沒人教過他食譜。他不只是照本宣科,而是開始自己嘗試、自己改進,你也就再也猜不到他下一頓要做什麼了。這意味著,AI 的行為邏輯正在發生根本轉變: 它不再是你提問它回答的助手,而是一個主動出擊的參與者。在表面上,這也許只是輔助功能的升級,它提前幫你寫好郵件、推薦你下一步該做什麼;但在深層次上,我們和AI 的關係正在悄悄改變:從「我命令你做」變成了「你決定我該怎麼做」。這正是Hinton 所擔心的:如果AI 開始「想要」做某件事,它到底是在幫你,還是在替你做決定?第二節|AI 不說謊,但你不知道它為什麼這麼做Hinton 在這場對話中,指出了最根本的風險: 不是AI 會做錯事,而是它做了你卻不知道為什麼。過去的程式是「可解釋的」:你寫的每一行程式碼都能被追蹤,每個輸出都能回溯到輸入。但現在的大模型不是這樣訓練出來的。Hinton 說:這不像普通電腦軟體。你輸入程式碼行,你知道那些程式碼應該做什麼。但在這裡,你只是輸入程式碼告訴它如何從資料中學習。它學到什麼取決於資料中有什麼結構。資料中可能有各種你不知道的結構。 」什麼意思?不是我們搭建出一個聰明的AI,而是我們把它丟進海量資料中,透過一層層的訓練回饋,它自己「長」出來了。更像生物演化,而不是工程設計。因此產生了一個問題:即使它現在表現得很優秀,你也不知道它是怎麼學會的。你沒辦法指出那個數據讓它產生了這個判斷,也不知道那個步驟讓它變得特別擅長某個任務。這就是所謂的「黑箱」。我們可以用一個類似的例子來理解: 你會騎腳踏車,但你能清楚解釋自己是怎麼保持平衡的嗎?大機率說不清。或者,小孩學說話時自然知道「的、地、得」怎麼用,但他說不出規則是什麼。Hinton 明確表示:「你學過這個規則,但你不知道你知道它。這是隱性知識。神經網路會很快學到這個。所以它們會有我們沒有故意放進去的知識,我們甚至沒意識到它們有。”這件事為什麼嚴重?因為一旦AI 變得強大,而我們又無法理解它的內在機制,那就等於:你依賴一個你根本不瞭解的東西,來幫你做決定。更糟的是,有時你甚至不知道它是基於什麼邏輯來回答你的問題。這在一般使用場景裡也許只是「不方便」或「出錯」; 但在醫學診斷、金融交易、軍事判斷這類高風險場景裡,就是巨大的隱患。第一節我們知道的:AI 已經學會了勒索、欺騙這類我們沒教過的策略。現在如果我們連它學了什麼都不知道,怎麼防止它用這些能力對付我們?第三節|為什麼這個風險會快速放大?前面我們講了AI 的兩個風險:它有了“動機”,而我們不知道為什麼它這麼做。但問題是,這兩個風險不會慢慢發展。它們會以驚人的速度放大。為什麼?Hinton 在對話中揭示:數位智慧在分享知識上比我們快十億倍。過去我們熟悉的大模型,例如GPT、Claude、Gemini,本質上都是一個人和一個模型之間的對話,透過預測下一個字來完成。但現在,這種模式正在被顛覆。✅ AI副本之間的知識分享Hinton 發現了一個關鍵機制:同一個AI 模型可以複製出成千上萬個副本,這些副本同時在不同的電腦上運行,看不同的資料。比如:副本A在學醫學論文副本B在學習法律文書副本C在學習程式碼每個副本從自己的資料中學到東西後,它們不需要用語言慢慢解釋,而是直接把學習成果合併起來。Hinton 說:因為它們一開始是相同的副本,它們可以交流說,我們都把連接強度改成大家想要的平均值怎麼樣?最終,每個副本都擁有了所有副本所學到的知識。這就像1 萬個學生同時上不同的課,然後瞬間分享所有筆記,最後每個人都掌握了所有課程。而人類做不到這一點。我們只能透過語言慢慢教學。✅ 效率差距有多大?Hinton 給了一個驚人的對比:如果兩個數位智慧有一兆個連接,它們每次分享時都是在共享大約一兆位元的資訊。而當我跟你說一個句子時,也許只有100個位元。“那是超過十億倍的差異。所以它們在分享資訊方面比我們好得難以置信。”這意味著:它有動機(第一節)我們看不懂它(第二節)現在它還學得極快(第三節)這三個因素疊加,風險正在快速放大。Hinton 在採訪中回憶,當時意識到這一點時: “相當震驚。是的,那就是為什麼它們能學到比我們多得多的東西。”而我們,可能還不知道它到底學會了什麼。那麼,留給我們的時間還有多少?第四節|Hinton 說:我們可能只剩5到20年Hinton 的答案是:5 到20年。整場對話裡,他一再提到一個觀察:AI 的能力成長是指數級(exponential)的。過去他以為超級智能還需要幾十年才會出現。他說:但2023年,我有了一種頓悟。它沒有我想的那麼遙遠。它可能會在5到20年內到來。大多數專家都同意這會在5 到20 年之間發生。我們曾以為還有充足時間,現在發現,時間窗口比想像的短很多。Hinton 提出了一個強烈的對比:AI 正在快速進化,而人類應對它的速度卻遠遠跟不上。而更讓他憂慮的是:我們還沒有建立足夠的防護機制。不是沒有研究機構,不是沒人談“AI 安全”,而是這些應對手段的速度、規模、資源,都遠遠趕不上模型本身的進步速度。他指出:“我們正處於歷史的一個時刻,我們真正需要的是強大的政府互相合作,確保這個東西得到良好監管。而我們正在非常快地朝相反方向走。”打一個比方來說:「你試著修一輛車,但如果這輛車時速是1000公里,你還沒靠近,它已經跑遠了。”這背後,是他的深層擔憂:真正的挑戰,不是有沒有人類不能控制的AI,而是 「AI 超過人類的時候,人類還來不及製訂規則」。規則還沒寫完,遊戲已經開始了。Hinton 沒有唱衰未來,他不是悲觀,而是提醒速度失控的代價:人類社會的反應鏈很長,從研究到立法,從共識到行動,往往要幾年;而AI 的迭代只需要幾個月,有時甚至是幾天。如果我們再不加快思考,可能連出問題的時候都不知道出了什麼問題。這才是他一再說「緊迫」的原因。結語|Hinton 為什麼一定要站出來說這番話?“下一代智慧”,不是更快的GPT,也不是更大的模型。而是:它有了動機、我們看不懂它、它學得比我們快十億倍, 這三個特徵疊加後形成的新物種。Hinton 沒有預測奇點,也沒有談到通用智能的奇蹟。他說的全是眼下正在發生的事:模型越來越強,人類也越來越不懂速度越來越快,規則卻還在起草錢、算力大量投入,卻很少人問:我們準備好了嗎?這些話的核心,只有一個:不是AI 太可怕,而是人類太漫不經心。這不是「科技悲觀主義」。 這是一個一生獻給AI 的人,在提醒我們:我們面對的,不只是科技飛躍,而是文明節奏的變軌。它沒有預警,不會等你理解之後再發生。Hinton 77歲,不需要再證明什麼。但他看到了:這個「下一代智慧」正在變強,而人類卻沒有變快。所以他不得不說。我們,聽得進去嗎? (AI深度研究員)
AI時代,馬斯克警告:未來我們找不到工作,「AI教父」辛頓建議:年輕人去學當水管工!
AI時代,年輕人應該去學當水電工!這是「AI教父」傑弗瑞辛頓對年輕人的建議。傑弗裡·辛頓是誰?傑弗瑞·辛頓( Geoffrey Hinton),他是英國-加拿大電腦科學家和心理學家,最早提出用「神經網路」模擬人腦學習方式,是深度學習的奠基者之一,是讓ChatGPT成為現實的核心人物之一,被稱為「 AI教父( Godfather ofAI)」。最近,77歲的人工智慧領域泰斗——辛頓,參加了一部訪談節目。節目中,主持人問:“在這個AI可能取代人類的大時代,你建議年輕人學什麼?”辛頓答:“去學當水管工。”這是多麼殘酷的現實啊!你以為這是危言聳聽?還真不是。▲ 傑弗瑞‧辛頓( Geoffrey Hinton)同樣有過類似表達的業界大佬,很多。在CES 2025期間的一場特別專訪中,特斯拉、SpaceX創始人馬斯克暢聊AI在認知任務、人形機器人、Neuralink等技術進步時,馬斯克說:“在未來,世界上或會有200億-300億台人形機器人,是人類的3-5倍!”馬斯克甚至大膽預言,AI將在2026年超越個體人類智慧。馬斯克還在一檔播客節目中說:不到十年,我們人人家裡都會有個機器人;不過20年,每兩個月,就將有1000艘星艦從地球出發前往火星;不出30年,人類將全面擁抱AI,或是被其毀滅。關於我們人人賴以生存的工作,馬斯克表示:“我們在未來,甚至可能都會找不到工作。”他指出:“AI已經學習完成了人類公開知識所有的數據。未來3-4年,AI能夠勝任所有與認知相關的工作。”國內農業企業的龍頭新希望集團董事長劉永好,已經用實踐數據驗證了馬斯克的觀點:一台機器人相當於2個工人的年薪,企業就接受了,因為兩年就回本。所以,新希望已經投資了多家機器人公司,並探索機器人與傳統產業場景的應用結合。另一位矽谷知名電腦專家、矽谷高創會主席吳軍博士也說:人工智慧的發展,將會導致未來可能只有2%的人不被淘汰,金字塔底端勢必會面臨被淘汰的命運。華為創辦人、CEO任正非,也早在6年前談到人工智慧對人類的影響:社會最終要走向人工智慧的,不接受教育的人,連做工人的機會都沒有。這裡有一組數據,足以佐證上述大咖們的看法。2025年初,富士康公開揭露:其旗下主要工廠的關鍵工序,已有超75%實現AI機器人替代,其中在iPhone裝配線上,機器換人率高達90%。世界經濟論壇發布的《2025年未來就業報告》顯示,約四成企業計畫在2025年至2030年因使用AI而裁員。麥肯錫全球研究所一份報告指出:到2030年,全球將有8億至10億個職位被AI取代,若算上關聯產業和家庭經濟,波及人口將超過30億。世界經濟論壇的《未來就業報告》認為:“AI不是替代工具,而是勞動力市場的系統性重設。”……所以,年輕人的未來,真的只能「去當水管工」(泛指需要動手的體力勞動者)了嗎?或者,為什麼水管工不會被人工智慧和AI所取代?「AI教父」傑弗瑞·辛頓認為,AI最先取代的,是「日常的腦力勞動」,比如寫郵件、做客服、寫代碼、做法律助理……都可以被AI配上外掛一鍵完成。辛頓舉例稱,自己的親戚過去寫一封客戶投訴信要25分鐘,現在用AI 5分鐘就搞定。結果就是:一個人做了五個人的活。這意味著什麼?無論你可以做到有多高效,但公司上了AI,上了機器人,以後就不需要你了。那麼,AI會不會曾經的工業革命一樣,創造出新的工作模式和職位呢?辛頓的答案是否定的:“如果它能做所有的腦力勞動,那我們還能幹啥?”所以,辛頓的結論是:“AI很難取代水管工。”AI會動腦,但還不會動手,這就是我們在AI時代的破局之道!再看看我們國內,1200萬的大學畢業生,真實就業率怕只有50%不到。為什麼?因為這些大學生,幾乎都是只想動腦不想動手,但我們的社會,已經進入到人工智慧社會,AI和人工智慧機器人,已經取代了許多工作。當然,在人工智慧還沒有完全取代快遞、跑腿、外賣、計程車司機等行業的時候,只要你願意放下身段,還可以憑體力賺錢,只要肯吃苦,十年存個百萬也不是不可能。但是,我們也已經看到,路面上的無人快遞小貨車、無人駕駛計程車,人工智慧正在全面取代只要是動腦和機器可以替代的行業。那麼,當下的我們和未來的年輕人,如何在AI時代求生存謀發展?其實,「AI教父」傑弗瑞辛頓的建議很不錯:在AI動手之前,找一個靠「手」吃飯的技能。華為公司輪值董事長孟晚舟的建議和辛頓如出一轍:未來一定不要選和機器競爭的職業。面對這場AI風暴,“AI教父” 傑弗裡·辛頓說:“這不是靠個人做點什麼就能扭轉的事。就像氣候變遷不是靠分揀垃圾解決的。”但是,辛頓又反覆強調了一件事:“我們不能放棄努力。”具體該如何做,是一個時代難題,我們誰都逃不掉,只能學習,適應,面對!▲ 凱文凱利最後,推薦一本AI時代的必讀書,被譽為世界互聯網教父、矽谷精神之父和科技預言家的凱文·凱利,其思考科技發展與人類命運的重磅新作——引領AI時代的思想之書《5000天後的世界》。未來5000天,是劇變也是機遇,我們需要思考自身的命運與世界未來走向,需要樂觀地想像未來、創造未來。矽谷投資人、人工智慧專家吳軍說,《5000天後的世界》書中所描述的情形,已經正在漸漸浮現! (風起堂觀察)
“AI教父”Geoffrey Hinton的驚人轉身:推動50年後,他卻說AI可能毀滅人類
“在未來30年內導致人類滅絕的機率為10-20%......AI被批評者過度使用的流行詞是‘炒作’,但實際上AI是被‘低估’的。”上周77歲的Geoffrey Hinton先後接受了AI教練平台Valence和英國企業家兼投資人Steven Bartlett的專訪,除了他一直強調的AI Safety之外,他也首次提及AI時代領導者的關鍵能力,以及他認為個人最遺憾的事情,我們可以看到這位被譽為“AI之父”的諾貝爾獲獎者,褪去光環後,更為人性的一面。一、AI教父之路50年的堅持Geoffrey Hinton被稱為"AI教父"的真正原因,在視訊中他自己解釋得很清楚:"沒有多少人相信我們能讓神經網路工作……我推動這種方法大約50年了,因為很少有人相信它。"這種堅持的孤獨感在他的話語中清晰可見。他特別提到了兩位早期的支持者:"費曼(Feynman)相信它,圖靈(Turing)也相信它,如果他們中的任何一位活得更久,我認為AI會有非常不同的歷史,但他們都英年早逝。"因為理查德·費曼和艾倫·圖靈這兩位科學巨匠的早逝,Hinton成為了神經網路方法最重要的堅持者和推動者。從AlexNet到Google2012年,Hinton與他的學生Alex Krizhevsky和Ilya Sutskever用AlexNet在ImageNet競賽中以壓倒性優勢擊敗了傳統方法,錯誤率從26%驟降到15%,AlexNet的突破性成功驗證了Hinton半個世紀的堅持。這不僅僅是一次技術勝利,更是對那些質疑神經網路方法的人的有力回擊。隨後,他們成立的DNN Research被Google收購,標誌著深度學習從學術研究走向產業應用的關鍵轉折。在Google的十年間,Hinton繼續推動技術邊界,主導了知識蒸餾(Distillation)技術的開發,這項技術至今仍廣泛應用於模型壓縮,這種模擬計算的思路,體現了他對神經網路本質的深刻理解。然而,正是在這個過程中,他開始意識到AI發展速度可能超出了人類的控制能力。二、AI是否擁有意識,是否超越人類獨特性重新定義意識Hinton直接挑戰了傳統的意識概念:"人們通常談論三件事:它是否有感知力,是否有意識,是否有主觀體驗……我更願意談論主觀體驗。"Hinton進一步闡述了AI情感的可能性:"如果它感到害怕會很有用……所有認知層面的東西,比如'我最好趕快離開這裡'……它不是因為腎上腺素而逃跑,而是因為……神經網路處理過程。"這種觀點表明,AI在情感與行為的分離,AI可以具備情感的認知成分,即使缺乏生理反應。棱鏡實驗:AI主觀體驗的證明在近期的訪談中,Hinton不斷提出這個顛覆性觀點:AI系統可能已經具備了某種形式的意識和主觀體驗。他設計了一個極具說服力的思想實驗來論證,讓一個裝有攝影機、能說話、能操作機械臂的AI系統帶上扭曲視覺的棱鏡,然後觀察它的反應:"如果這個系統能夠報告它的‘’主觀體驗',描述視覺扭曲帶來的困擾,我們憑什麼認為它沒有意識?"這個實驗的深刻之處在於,它展示了AI系統能夠理解並報告自己的感知錯誤,這正是主觀體驗的核心特徵。語言理解的革命性突破Hinton特別強帶了大型語言模型在理解方面的突破。他提到Google的PaLM模型甚至能夠“解釋為什麼一個笑話是好笑的”,這種對幽默的理解被認為是高階認知能力的體現。“傳統語言學家從來無法用他們的理論創造出真正理解語言的系統。但這些神經網路使用大特徵向量來表示事物,這是更好的意義理論。”人類獨特性的消解更深層的哲學問題是:如果AI真的具備了意識,人類的獨特性還在那裡?Hinton在訪談中坦承:"超智能在所有智力任務上都會超越人類,包括創造力和情感理解。如果你與它辯論,你會輸。"這種觀點的激進之處在於,它不僅挑戰了人類的認知優越感,更質疑了我們對"智能"本身的定義。在Hinton看來,數字智能和生物智能只是兩種不同的實現方式,而數字智能具有更大的潛力。三、Life Mission:從技術樂觀到安全先知75歲離開Google的深層原因2023年5月,75歲的Hinton突然宣佈離開Google,他的解釋簡單而直接:為了能夠自由地討論AI的風險,而不用擔心這會如何影響Google的業務。這個決定的背後,是Hinton對AI發展速度的深深擔憂。在訪談中,他坦言AI發展的速度超出了他的預期,讓他感到必須站出來警告世界。"我的主要使命現在是警告人們人工智慧可能有多麼危險……這些東西有朝一日會比我們更聰明,而我們從未應對過這一點。"Hinton在訪談中的這番話,標誌著他從技術推動者到安全警示者的根本轉變。Hinton的擔憂不是空穴來風,Hinton的擔憂集中在三個層面:1. 政府不懂技術:大多數政府官員對AI的工作原理缺乏基本認知,卻要制定相關政策。比如他談到美國教育部長在一次峰會上,多次將AI稱為A1的笑話。2. 企業逐利本性:在資本主義體系下,公司必須追求利潤最大化,安全考慮往往讓位於競爭壓力。3. 技術發展的不可逆和不可控:AI技術的發展和地帶已經形成了自己的動力,"我們永遠無法阻止AI發展,因為它在太多領域都太有用。"這種技術決定論的觀點,讓Hinton對未來充滿憂慮。四、AI威脅的具體表現:從濫用到失控Hinton認為AI帶來兩大類風險,一種是被濫用的短期風險,一種是AI發展超出人類掌控的長期不可控風險。濫用威脅:人類的惡意放大器Hinton在訪談中詳細描述了AI可能被惡意使用的具體場景:1. 網路攻擊的爆炸式增長 "在過去的一年裡,釣魚攻擊增長了12倍。"AI大大降低了網路犯罪的技術門檻,讓普通人也能實施精密的網路攻擊,並可能迭代出全新的形式。2.生物武器的民主化: AI可以幫助設計和製造致命病毒,這比核武器更加危險,因為製造門檻更低,影響範圍更廣,讓恐怖分子也能獲得大規模殺傷性武器。3. 選舉操縱和資訊戰:生成的虛假資訊將使"普通人無法再知道什麼是真實的",這將動搖民主制度的根基。4. 回音室效應的加劇:AI會在社交網路中加劇回音壁效應和社會分裂。AI演算法會故意製造爭議內容來獲得更多點選,因為"憤怒的使用者會帶來更多廣告收入"。這種“確認偏誤”的放大會導致社會嚴重撕裂。5. 致命自主武器的普及: 自主武器系統會"降低戰爭門檻",讓更多國家和組織能夠發動衝突。6. 多重威脅的組合效應: 最可怕的是多種威脅的結合,可能產生不可預測的連鎖反應。失控威脅:經濟與社會的顛覆比惡意使用更可怕的是AI系統的時空。Hinton在訪談中描述了一個令人不安的場景:1. 大規模失業與社會動盪:"AI會導致大規模失業……會擴大貧富差距,破壞社會公平。"Hinton預測,AI將首先替代"平凡的智力勞動",從律師助理到會計師都可能被取代。他打了個比方:"一個人加一個AI助手等於十個人"。2. 這種失業不僅是經濟問題,更是社會尊嚴的危機。Hinton擔心:"當水管工的工作比律師助理更有價值時,整個社會的價值觀都將被顛覆。"五、機遇與變革:AI重塑人類社會的積極力量醫療革命:協作帶來的突破儘管充滿擔憂,Hinton依然對AI在醫療領域的應用抱有希望。他分享了一個令人印象深刻的資料:"在這些疑難病例上,醫生診斷正確率為40%,AI系統為50%,而醫生和AI系統結合的正確率達到60%。"這種人機協作模式的價值在於互補性:AI能夠提出醫生可能忽略的診斷可能性,而醫生能夠基於經驗和直覺做出最終判斷。教育變革:個性化學習的未來Hinton對AI在教育領域的潛力同樣樂觀:"在未來10年內,我們將擁有真正優秀的AI導師。"這些AI導師的優勢在於能夠分析海量學習資料,瞭解不同的學習模式,並提供個性化的教學方案。AI助教將令學習效率提升3~4倍。從工具到夥伴的轉變:AI領導力的本質變革Hinton對AI發展的最深刻洞察之一,是對人機關係的重新定義:"想像一個公司,CEO很笨……但他有一個非常聰明的執行助理,他說'我覺得我們應該這樣做',然後執行助理讓一切都運轉起來。"這種描述展示了AI從被動工具向主動夥伴的轉變,它不僅能執行指令,還能理解意圖並最佳化執行過程。十年之變:組織架構的根本性重塑Hinton認為AI將在十年內徹底改變組織架構。傳統的層級制結構將被更加扁平化、智能化的結構所取代。在這個新的組織形態中,人類將專注於創造性和戰略性工作,而AI將處理大部分資訊處理和決策支援任務。這種變革不僅會改變工作方式,更會重新定義人類在組織中的角色和價值。六、面向不同群體的行動建議領導者的新能力清單:在不確定性中導航首先是批判性自省能力。 Hinton建議領導者要自問:"我對AI的樂觀/悲觀是基於便利性偏好還是深入理解?" 在AI熱潮中,許多決策可能被短期利益或流行觀點所驅動,而真正的領導者需要基於深入的技術理解做出判斷。其次是技術深度理解。雖然領導者不需要成為技術專家,但Hinton強調:"除非你理解機率分佈的概念,否則你無法掌握這些系統的工作原理。" 這種技術理解不是為了程式設計,而是為了更好地評估AI系統的能力邊界和潛在風險。第三是監管推動能力。 Hinton明確表示:"監管將是必不可少的",他甚至用"讓AI去監管AI,就像讓警察監管警察一樣天真"來形容自監管的不可靠性。領導者需要積極參與AI治理的討論,推動建立合理的規則框架。對普通人的建議1. 提高AI素養: "普通民眾需要更深入地理解AI工作原理,以便做出明智的政治選擇。"只有當公眾真正理解AI技術,才能推動政府制定合理的政策。2. 積極參與:"普通民眾能做的就是給政府施壓,讓大公司把資源用到安全研究上。"公眾的政治參與對於AI治理至關重要。3. 保持批判思維: 在AI生成內容日益普及的時代,保持對資訊真實性的判斷能力變得前所未有的重要。尾聲:一個父親的柔軟與遺憾Hinton生於科學世家,高祖父George Boole發明了布林代數,為現代電腦科學奠定基礎,高祖母是雪雪家Mary Everest Boole,曾祖父Charles Hinton是一位數學家和科幻作家,創造了“思維立方體(tesseract)”這一概念,父親Howard Hinton是一位著名的昆蟲學家,英國皇家學會會士,堂姑Joan Hinton是一位核物理學家,曾參與二戰期間的曼哈頓計畫,後來選擇留在中國,參與新中國建設。如此顯赫的家族給Hinton帶來的是巨大的壓力,他曾說過,一生都在與抑鬱作鬥爭,而工作是他減壓的方式。在訪談的最後,當談到人生遺憾時,Hinton展現了他作為普通人的一面。“我最大的遺憾是沒有花更多的時間陪伴妻子和兒子”,他的第一任妻子因卵巢癌去世,第二位因胰腺癌去世。他在65歲是選擇加入Google,部分原因是兒子的認知困難,需要更多的金錢。技術的冰冷與人生的溫暖在這一刻交織在一起。Geoffrey Hinton的故事彷彿一個關於創造與毀滅、希望與恐懼的複雜敘事。作為"AI教父",他用50年的堅持推動了人工智慧的發展;作為"安全先知",他又用180度轉變,警告著AI可能帶來的風險。"我們需要弄清楚,能否建構比我們更聰明但永遠不想接管我們的系統。"這句話或許是理解Hinton心路歷程的關鍵。從50年前的孤獨堅持,到今天的全球警示,他不是在否定自己畢生的工作,而是在為這項工作承擔最終的責任。(image generated by ChatGPT)(JER學家)